Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Nikon Z6 (II) / Z7 (II) / Z9 ...-Forum

Infoseite // CineD Nikon Z9 Lab Test mit N-RAW



Frage von pillepalle:


Seit ein paar Tagen ist der cineD Lab-Test zum Dynamic Range und der Latitude der Z9 mit dem N-RAW Format online. Fast Fazit liest sich so:
Summary
With the inclusion of internally recorded N-RAW, the Nikon Z 9 really makes a huge leap forward. Not only does it show strong results in rolling shutter performance (as it did before), but it’s now also capable of recording 8.3K 12bit up to 60 frames per second. As expected, N-RAW is noisier because not so much internal signal processing is going on – leading to lower IMATEST results of 10.2 stops at a signal-to-noise ratio (SNR) of 2 and 11.9 stops at SNR = 1 (compared to internal 8K H265 N-Log).

But looking at the latitude results, the 12-bit combined with the power or RAW in terms of exposure adjustments make all the difference.

2 if not 3 stops more latitude compared to 10bit H265 recording bring it to the top of the list of full-frame consumer cameras with 8 stops of exposure latitude (with wiggle room towards 9).

Nikon has come a long way with the video features on their photo cameras, and it shows.
Hier geht's zum kompletten Artikel: https://www.cined.com/nikon-z-9-n-raw-l ... -latitude/

VG

Space


Antwort von soulbrother:

Danke für den interessanten Test.

Eine Frage in die Runde:
Gibt es eine Übersicht, in der die (ca.) Dateigrößen der verschiedenen Videoformate, welche die Z9 bietet und intern aufgenommen werden können, ersichtlich sind?

Und gibt es bei N-RAW (12 Bit) nur eine, oder evtl. unterschiedliche Kompromierungsraten in der Z9?
(Also nur "maximale" Dateigrößen, oder evtl. "was weniger Speicherfressendes"?)
Danke Euch!

Space


Antwort von pillepalle:

@ soulbrother

Es gibt zwei Qualitätsstufen, High Quality und Normal. Die findest Du im Addendum zum Handbuch der Z9 im Nikon Download-Center:

https://downloadcenter.nikonimglib.com/de/index.html

Hier die beiden Seiten mit den Bitraten.


zum Bild


zum Bild


VG

Space


Antwort von jenss:

Vielen Dank für die Infos. Da sind ja sehr große Dateien bei RAW. Ist der Vorteil ggü. NLog so groß? Sieht man das im Film nach Bearbeitung? Ich kenne mich mit Video-RAW noch nicht aus. Womit lässt sich das bearbeiten? Direkt in Magix Pro X oder so? Reicht ein PC mit i9 9900, RTX3070, 32 GB Ram? Wofür wird das in einer Z8/9 wohl am ehesten genutzt?
j.

Space


Antwort von cantsin:

jenss hat geschrieben:
Ich kenne mich mit Video-RAW noch nicht aus. Womit lässt sich das bearbeiten? Direkt in Magix Pro X oder so?
Wenn Du mit dieser Software arbeitest und zufrieden bist, würde ich Video-Raw einfach vergessen. Im Prinzip braucht man Raw nur, wenn man mit Programmen wie Resolve arbeitet und deren Farbkorrektur/Color Grading-Funktionen ausreizen will.

Space


Antwort von jenss:

Ok., danke. Dann ist Video-RAW für mich wohl kein Argument. Möchte beim Wechsel von meiner Sony A9 auf jeden Fall Log-Profil haben. RAW muss es wohl nicht sein. Da ich aber auf jeden Fall den Stacked Sensor will, käme bei Sony nur die A1 in Frage. Da wäre ein Systemwechsel zur Z8 sogar eher günstiger, trotz der vorhandenen Sony-Objektive. Pro Z8 spricht wohl auch die optimale Integration von MF im AF-Modus bei Video. Das ist bei Sony nicht so optimal.
j.

Space


Antwort von cantsin:

jenss hat geschrieben:
Pro Z8 spricht wohl auch die optimale Integration von MF im AF-Modus bei Video.
Was meinst Du damit?

Space


Antwort von jenss:

Was ich bisher gelesen habe, kann man bei Nikon im AF-Modus direkt zu MF (und zurück) wechseln und bekommt dabei eine Lupe zum Scharfstellen. So geht das bei Sony nicht. Ich kann bei der A9 nicht aus dem MF-Modus heraus manuell korrigieren.
j.

Space


Antwort von Jott:

???

Space



Space


Antwort von pillepalle:

Jott hat geschrieben:
???
Er meinte aus dem AF-Modus manuell korrigieren. Bei Nikon kannst Du, auch wenn Du den AF nutzt, einfach am Fokusring drehen und den Fokus manuell ändern. Der Übergang zwischen AF und MF ist quasi fließend. Nennt sich, glaube ich, manual override.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Jott hat geschrieben:
???
Er meinte aus dem AF-Modus manuell korrigieren. Bei Nikon kannst Du, auch wenn Du den AF nutzt, einfach am Fokusring drehen und den Fokus manuell ändern. Der Übergang zwischen AF und MF ist quasi fließend. Nennt sich, glaube ich, manual override.
Das heißt bei Sony Dynamic Manual Focus (DMF) und funktioniert genauso, und gibt es selbst bei meiner 12 Jahre alten NEX-5N...

Space


Antwort von pillepalle:

@ cantsin

Ich konnte gerade bei Sony unter DMF nur einen Direct Maual Focus finden und der funktioniert anders, denn da muss man irgendwie den Release Button halb gedrückt halten. Bei Nikon ist das immer möglich, egal in wechem AF Modus und ohne etwas drücken, oder vorher einstellen zu müssen.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Bei Nikon ist das immer möglich, egal in wechem AF Modus und ohne etwas drücken, oder vorher einstellen zu müssen.
Also auch in AF-C bzw. im Tracking-AF? Das geht bei Sony i.d.T. nicht.

Space


Antwort von pillepalle:

Ja. Die haben ein gutes Kupplungssystem mit dem man den AF Motor nicht erst lösen muss bevor man am MF Ring dreht. Gab's da aber auch schon zu DSLR Zeiten.

VG

Space


Antwort von dienstag_01:

Wir hatten doch vor vielleicht 2 Monaten eine Diskussion um den AF, ich meine mich zu erinnern, dass geht bei Sony auch. Genauso wie bei z.B. der R5C von Canon.
Bei meiner RP nur im Foto-Modus.

Space


Antwort von -paleface-:

8k RAW mit ner DSLR.... Was für Zeiten.

Nutzt das wirklich jemand?
Und für was genau?

Bei der GH6 gibt es den 5.7k Modus in prores.
Den nutze ich tatsächlich nur für Gimbal Aufnahmen. Und dann aber auch nur wenn der Gimbal shot ein spezial Shot ist.
Damit ich Luft habe falls ich am Ende doch croppen oder stabilisieren will/muss.

Ansonsten find ich 5.7k Proes too much.

Space


Antwort von jenss:

Wenn ich an meiner A9 DMF eingestellt habe, ist da kein AF. Oder wie geht das?
j.

Space


Antwort von rush:

pillepalle hat geschrieben:
Ja. Die haben ein gutes Kupplungssystem mit dem man den AF Motor nicht erst lösen muss bevor man am MF Ring dreht. Gab's da aber auch schon zu DSLR Zeiten.

VG
Birgt das nicht ggfs die Gefahr versehentlich den AF während der Arbeit zu deaktivieren, etwa wenn man mit der Hand an den Fokusring kommt?
Und woher weiß die Kamera wann sie anschließend wieder den AF übernehmen soll?

Bei Sony muss man bei Video in der Tat eine Taste drücken mit der man von AF nach MF switcht (ich habe den "AF-On" Button entsprechend "programmiert") - aber eigentlich finde ich dieses bewusste setzen von AF ODER MF durchaus sinnvoll und logisch.

Auf einer weiteren Taste liegt dann das Magnify - auch das bevorzuge ich manuell uu triggern... habe im Fotomodus etwa dieses automatische heranzoomen bei MF deaktiviert weil es mich eher stört. Wenn ich Bedarf habe Magnify zu benötigen - dann drück ich halt 'ne Funktionstaste - dazu sind sie da :)

Aber hier gibt es sicher viele Arbeitsweisen und Wege die nach Rom führen...

Space



Space


Antwort von cantsin:

jenss hat geschrieben:
Wenn ich an meiner A9 DMF eingestellt habe, ist da kein AF. Oder wie geht das?
Fokussieren (via AF ON oder halbgedrückten Auslöser) und dann nach dem Autofokus den manuellen Fokus ziehen.

Space


Antwort von rush:

cantsin hat geschrieben:
jenss hat geschrieben:
Wenn ich an meiner A9 DMF eingestellt habe, ist da kein AF. Oder wie geht das?
Fokussieren (via AF ON oder halbgedrückten Auslöser) und dann nach dem Autofokus den manuellen Fokus ziehen.

Oder halt andersherum... AF generell entkoppeln und einfach solange in AF filmen wie man möchte... Und soll der AF dann kurz pausieren, kürzer Druck auf die AF On Taste und man landet in MF... So muss man nichts gedrückt halten und sich einen abwürgen.

Anschließend wieder kurz AF On tippen und der AF Servo nimmt seine Arbeit wieder auf..

Hat jemand zur Nikon Variante eine Video Verlinkung des manuellen Overrides? Hatte ja selbst lange Zeit Nikon aber kann mich da nicht erinnern was genau der Unterschied/Vorteil des Nikon System ist... Die neueren Zs kenne ich nicht außer vom kurzen begrabbeln im Fotoladen.

Space


Antwort von dienstag_01:

Sony nennt es AF Assist:

https://www.youtube.com/watch?v=03i4s2w0TVA&t=2s

Space


Antwort von rush:

Nur haben dieses Feature nicht alle Sony Kameras an Board und auch nicht alle per FW nachträglich bekommen... Die A7sIII etwa zählt zu den Kameras die davon nicht profitieren und es wahrscheinlich auch nicht mehr werden.
Bei der A9 könnte dies ähnlich sein...

Space


Antwort von cantsin:

rush hat geschrieben:
Nur haben dieses Feature nicht alle Sony Kameras an Board und auch nicht alle per FW nachträglich bekommen... Die A7sIII etwa zählt zu den Kameras die davon nicht profitieren und es wahrscheinlich auch nicht mehr werden.
Bei der A9 könnte dies ähnlich sein...
Jepp, allerdings hat die A7iv es, weshalb man davon ausgehen kann, dass alle Sony-Hybridkameras seitdem (10/2021) damit ausgerüstet sind/werden.

Space


Antwort von jenss:

Bei meiner A9 geht das nicht. Aber bei der A1 geht es auf jeden Fall? Im Test der Z8 wurde geschrieben, dass Nikon die beste Integration AF/MF hat.
j.

Space


Antwort von cantsin:

jenss hat geschrieben:
Bei meiner A9 geht das nicht. Aber bei der A1 geht es auf jeden Fall?
Die A1 hat das Feature nicht (und ist auch älter als die A7iv).

Space


Antwort von pillepalle:

rush]Und woher weiß die Kamera wann sie anschließend wieder den AF übernehmen soll? Das sagst Du der Kamera, je nachdem wie Du arbeitest, durch antippen eines Schalters oder des Displays z.B. Der Clou ist eben, dass das ziemlich nahtlos funktioniert und man auch während der Aufnahme vom einen in den anderen Modus wechseln kann.

[quote=-paleface- hat geschrieben:

8k RAW mit ner DSLR.... Was für Zeiten.

Nutzt das wirklich jemand?
Und für was genau? Das kann man z.B. für ziemlich gutes downgesampletes 4K nutzen. Oder auch mit der High-Res Zoom Funkion, aus jeder Festbrennweite ein 2 fach parfokales Zoom machen, oder Zoomobjektive um den Faktor 2 erweitern. Nicht nur für Liveanwendungen praktisch, sondern kann auch Zeit und Datenmenge in der Post sparen. Bei Nikon kann man auch sowohl in FF in 4K filmen (oversampelt), in einem s35 Crop (1,5fach), oder in einem 2,3 fachem Crop (1:1 Readout). Oder eben ganz normal in 8K Filmen.

VG

Space


Antwort von rush:

pillepalle hat geschrieben:
Und woher weiß die Kamera wann sie anschließend wieder den AF übernehmen soll?
Das sagst Du der Kamera, je nachdem wie Du arbeitest, durch antippen eines Schalters oder des Displays z.B. Der Clou ist eben, dass das ziemlich nahtlos funktioniert und man auch während der Aufnahme vom einen in den anderen Modus wechseln kann.

VG Okay - dann ist es aber faktisch doch kaum/kein Unterschied zur "Sony Arbeitsweise".

Denn auch an der 7s kann man während der Aufnahme durch einen seichten Tastendruck zwischen AF und MF togglen und so nathlos zwischen den Modi wechseln.

Klang jetzt so als wäre da noch irgendwie mehr dahinter... Aber Nikon hat ja sowieso immer gefühlt noch einen Modus "mehr" an Board- der bei den anderen Herstellern dann nicht dediziert aufgeführt wird aber dennoch vergleichbar funktioniert - so scheinbar auch in diesem Beispiel.

Space



Space


Antwort von pillepalle:

Na ja, bei Nikon musst Du eben keine Knöpfe drücken um in den MF Modus zu wechseln und das geht eben immer. Es gibt schon ein paar Dinge die besser gelöst sind als woanders. Ich zitiere mal aus dem Slashcam Review zur Z8.
Die beste Implementierung im Vollformat DSLM-Bereich kann das Nikon Z-Lineup hingegen für den nahtlosen Übergang zwischen AF- und MF-Funktionen für sich beanspruchen – und die Nikon Z8 stellt hier keine Ausnahme dar. So lässt sich jederzeit manuell durch Drehen am Fokusring in den Video-Autofokus eingreifen und per Druck auf die AF-Taste wieder zurückwechseln. Hat man Peaking aktiviert, wechselt der Sucher bei der manuellen Fokussierung sofort in die Peaking-Ansicht. Hiermit lassen sich sehr zuverlässig manuelle Schärfeverlagerungen als Override im AF-Betrieb durchführen. Wer häufig zwischen manuellen und automatischen Fokusfunktionen wechselt, findet hier ein sehr gut abgestimmtes AF/MF-System.

Zu den Stärken des Nikon AF-Systems zählt für uns auch die intelligente Suchervergrösserung, die sich (teilweise s.u.) während der Videoaufnahme dazuschalten lässt. Hierbei wird bei aktiviertem Facetracking nicht einfach nur die Mitte des Suchers bei Bedarf vergrössert, sondern der Trackingrahmen um die Augen - ganz gleich wo sich das Gesicht gerade im Sucherausschnitt befindet. Unserer Meinung nach sollte die Implementierung einer Liveview-Vergrösserungsfunktion genau so arbeiten - leider immer noch kein Standard bei videoafinen DSLMs.
Mit dem neuesten Firmware-Update (gab's zur Zeit des Reviews noch nicht) wird Dir auf Wunsch beim manuellen Fokussieren sogar der Fokus auf einer Skala in Metern, oder Zentimetern, im Sucher oder auf dem Display angezeigt.

VG

Space


Antwort von roki100:

Bei Lumix S (auch bei GH6) heißt die Funktion "AF+MF" und funktioniert nur in AFS Modus.

Space


Antwort von rush:

pillepalle hat geschrieben:
Na ja, bei Nikon musst Du eben keine Knöpfe drücken um in den MF Modus zu wechseln und das geht eben immer.
Laut dem Review und Deiner Aussage muss man aber zum erneuten Aktivieren des AFs dann aber doch auch wieder eine Taste oder Touch Fläche berühren....
So gesehen spart man sich einen winzigen Schritt - und einige Sonys scheinen diese Funktion ja per AF Assist auch bekommen zu haben manuell jederzeit eingreifen zu können.
Ist sicher nett - aber jetzt kein riesiger Beinbruch kurz eine Taste zu tippen wie ich finde, zumal man eben nicht versehentlich den AF aus dem Takt bringt. Kann also ggfs. auch ein Vorteil sein sowas nicht zu aktivieren...
Auch verstellt man den Fokus dann ja womöglich schon ganz leicht bei Berührung des Fokusrings? Möchte man womöglich auch nicht in jeder Situation.

Das mit der intelligenten Suchervergrößerung um den Gesichtsrahmen klingt in der Tat aber sinnvoll und praktisch, genau wie eine Entfernungsskala praktisch sein kann.

Schön daß Nikon da an einigen Stellen noch etwas weiter denkt und sowas implementiert bzw. anbietet.

Space


Antwort von jenss:

Ich hatte mir jetzt die Z8 und A1 zusammen angesehen. Die Z8 ist zwar klar leichter als eine Z9, aber immer noch deutlich schwerer und größer als eine A1. Ich mag gerne kleine, leichte Kameras. Der Griff der Z8 ist zwar besser, aber der von der A1 reicht aus (einen Minigriff wie bei der A9 gibt es leider nicht zur A1). Man kann mit der A1 in DMF den AF kurz pushen. Aber er macht dabei kein Tracking, wenn man gedrückt hält. Bei der Z8 kann man im AF-Modus direkt MF nutzen und mit einem kleinen Tipp auf den Auslöser ist man wieder in AF. Das finde ich deutlich besser gelöst als bei der A1. Der größere Monitor der Z8 ist natürlich fein, aber der Sucher der Z8 kam mir etwas dunkel vor im Vergleich zur A1. Wahrscheinlich nur eine Frage der Einstellung. Der Augen-AF schien mir bei der Z8 noch besser als bei meiner A9, d.h. Köpfe und Gesichter werden von weit weg und von der Seite besser erkannt. Das habe ich bei der A1 nicht so genau geprüft. Insgesamt eine schwierige Entscheidung. Die A1 käme bei mir wohl nur gebraucht in Frage. Für meine A9 bekomme ich dort allerdings nur 1344 €. Da kann ich sie auch als Zweitbody behalten. Vielleicht ist es auch eine gute Lösung, die Z8 zusätzlich zu kaufen und zur A9 noch mindestens 1 gutes Objektiv zu behalten (ich liebe mein 35/1,4 Sony-Zeiss).
j.

Space


Antwort von pillepalle:

jenss hat geschrieben:
Der größere Monitor der Z8 ist natürlich fein, aber der Sucher der Z8 kam mir etwas dunkel vor im Vergleich zur A1. Wahrscheinlich nur eine Frage der Einstellung.
Ja, ist nur eine Einstellungssache. Der Sucher der Z8/Z9 ist mit bis zu 3000 Nits der zur Zeit hellste am Markt. Da kann man bei Sonne fast mit Sonnenbrille arbeiten :) Du bekommst Dein Sony Glas übrigens auch mit AF an die Nikon Kameras adaptiert. Habe aber keine Ahnung wie gut der AF in der Kombi dann funktioniert. Hier ist z.B. einer von Fotodiox:

https://youtube.com/shorts/QLo_HD97eKk?feature=share

VG

Space


Antwort von jenss:

Habe jetzt das Video bei https://www.slashcam.de/artikel/Test/Ni ... edarf.html gesehen. Ich finde die AF-Performance doch etwas enttäuschend, hat oft Unschärfe bei Bewegung. Das kann meine Sony A9 schon besser. Hm... die A1 müsste da wohl merklich mehr können, oder?
j.

Space


Antwort von iasi:

jenss hat geschrieben:
Habe jetzt das Video bei https://www.slashcam.de/artikel/Test/Ni ... edarf.html gesehen. Ich finde die AF-Performance doch etwas enttäuschend, hat oft Unschärfe bei Bewegung. Das kann meine Sony A9 schon besser. Hm... die A1 müsste da wohl merklich mehr können, oder?
j.
Also wenn du dich da mal nicht irrst.
Das wurde mit 50fps aufgenommen - und dann in Zeitlupe abgespielt. Der AF spricht etwas verzögert an, was dann natürlich überdeutlich wird. Vielleicht lässt sich dies auch einstellen.
Ich finde die AF-Leistung schon beeindruckend.
Hab erst gestern eine Szene aus Pate 1 gesehen: Langsame Ranfahrt - mit leichten Fokusproblemen. :)

Space


Antwort von cantsin:

iasi hat geschrieben:
jenss hat geschrieben:
Habe jetzt das Video bei https://www.slashcam.de/artikel/Test/Ni ... edarf.html gesehen. Ich finde die AF-Performance doch etwas enttäuschend, hat oft Unschärfe bei Bewegung. Das kann meine Sony A9 schon besser. Hm... die A1 müsste da wohl merklich mehr können, oder?
j.
Also wenn du dich da mal nicht irrst.
Wenn man von der A9 kommt, ist man hinsichtlich AF-Qualität an ein extrem hohes Niveau gewöhnt und wird wahrscheinlich nur mit einer in dieser Disziplin gleichwertigen Sony-Kamera glücklich...

Space


Antwort von pillepalle:

Das läßt sich natürlich besser einstellen als im Test und das ist auch wo viele Tester etwas oberflächlich sind (mangels Zeit). Die testen dann den AF meist nur in den einfachsten Einstellung. Sony hat zur Zeit sicher die Krone in Sachen AF und bei Nikon braucht es mehr Know-How um den AF passend einzustellen. Und wer von einer Sony kommt, wird sich bei einer neuen Sony logischerweise auch kaum umstellen müssen. Aber es gibt ja noch ein par andere Dinge die die Wahl der Kamera beinflussen können. Jeder Hersteller hat seine Stärken und Schwächen.

Ich finde es eher erstaunlich das Hersteller, wie z.B. Nikon, innerhalb von knapp 3 1/2 Jahren (erste Spiegellose im Sommer 2018 und Z9 im Winter 2021) den unerreichbar scheinenden Vorsprung von Sony quasi egalisiert haben. Es gibt zwar ein paar Punkte wo sie nicht ganz an das Niveau reichen, aber auch andere wo sie bereits besser sind. Der Wettbewerb wird auch dafür sorgen, dass es sich kein Hersteller wirklich erlauben kann in einem Bereich völlig zu schlafen. Die Wahl der Marke wird eigentlich nur noch zur Geschmacksfrage, weil die Wesentlichen Features mittlerweile von allen bedient werden.

VG

Space



Space


Antwort von rush:

pillepalle hat geschrieben:

Ich finde es eher erstaunlich das Hersteller, wie z.B. Nikon, innerhalb von knapp 3 1/2 Jahren (erste Spiegellose im Sommer 2018 und Z9 im Winter 2021) den unerreichbar scheinenden Vorsprung von Sony quasi egalisiert haben.
Allerdings haben z.B. Nikon oder auch Canon in der Zeit davor relativ viele Nutzer an den DSLM "Platzhirsch" Sony verloren. Will man diese Kunden nun zurückzugewinnen, ist das gewiss kein leichtes Unterfangen, selbst wenn das System prinzipiell überzeugt oder gar in Nuancen einen Mehrwert bietet wie z.B. RAW intern.

In meinem Bekannten,-und Kollegenkreis ist in den letzten Jahren gefühlt fast jeder weg von Canon oder Nikon -> hin zu Sony. Es hat einfach etwas zu lange gedauert bis sie sich dem spiegellosen Trend angenommen haben. Wahrscheinlich wäre ich sonst heute auch noch Nikonianer.

Mittlerweile stagniert Sony aufgrund der Marktposition ein wenig - auch in Hinblick auf Software Features sind sie bekanntermaßen kein Vorzeigekandidat und bieten der Konkurrenz so an mehreren Angriffspunkten Platz zum Aufschließen.

Für Neueinsteiger ist das eine wunderbare, wenn auch gewiss nicht leichte Qual der Wahl.

Dem gesetzten und mit entsprechend Glas ausgestatteten Sony User bekommt man dagegen vermutlich eher schwer zu einer anderen Marke gelockt, dafür sind die Unterschiede der "Neuen" von CaNikon dann vermutlich noch nicht groß genug.

Space


Antwort von cantsin:

Und Nikon hat bei der Z8 gerade katastrophale Fertigungsmängel (die wohl damit zusammenhängen, dass die gesamte Kameraproduktion der Firma in neue Fabriken in Thailand verlagert wurde), so dass man z.Zt. vom Kauf der Kamera abraten muss.

Space


Antwort von pillepalle:

cantsin hat geschrieben:
Und Nikon hat bei der Z8 gerade katastrophale Fertigungsmängel (die wohl damit zusammenhängen, dass die gesamte Kameraproduktion der Firma in neue Fabriken in Thailand verlagert wurde), so dass man z.Zt. vom Kauf der Kamera abraten muss.
Klingt leicht übertrieben ;) Die Fertigungsmängel betreffen ein paar Seriennummern für die es bereits Rückrufaktionen gibt. Das betraf einmal Objektive die sich nicht an die Kamera anschließen ließen und die Kameragurt-Halterung, die sich bei starker Belastung lösen konnte. Ändert aber wenig am Erfolg der Z8.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:

Klingt leicht übertrieben ;) Die Fertigungsmängel betreffen ein paar Seriennummern für die es bereits Rückrufaktionen gibt. Das betraf einmal Objektive die sich nicht an die Kamera anschließen ließen und die Kameragurt-Halterung, die sich bei starker Belastung lösen konnte.
Beides IMHO katastrophale Mängel. Und woher hast Du "ein paar Seriennummern", im Sinne von wenigen betroffenen Kameras? Alle einschlägigen Kameraforen sind voll von Postings von Leuten, deren Kamera betroffen ist.

Bist Du eigentlich Nikon-Markenbotschafter und in dieser Eigenschaft hier aktiv?

Space


Antwort von pillepalle:

@ cantsin

Ich bin genusowenig Nikon Markenbotschafter, wie Du einer für Panasonic. Ich rücke nur Deine stehts negativen Postings zu Nikon wieder ins richtige Licht ;) Ich habe in den vier Jahren in denen ich hier im Forum bin nur negatives von Dir über Nikon gelesen. Erst waren sie (laut Deiner Meinung) kurz vor der Pleite, dann warst Du Dir recht sicher das das RAW Feature nicht kommen wird und hast bist zum Ende geunkt dass es wieder verschwinden könnte. Jetzt sprichst Du davon das man die neue Kamera nicht empfehlen kann, usw...

Welche Seriennummern betroffen sind, kann jeder Online selber überprüfen.

https://nikon.tfaforms.net/696

Und wer sich über den Mangel informieren möchte, kann das auch tun, z.B. hat Nikon Rumors gerade erst einen Artikel dazu veröffentlicht.

https://nikonrumors.com/2023/08/07/here ... call.aspx/

Das eine neue Kamera auch Mängel haben kann, ist jetzt nichts was es nur bei Nikon gäbe. Unüblich ist eher wie transparent Nikon damit umgeht und zeitnah darauf reagiert. Und die Mängel die bisher bekannt wurden waren alle mechanischer Art. Nichts was die Kamerafunktionen an sich betrifft. Bei den japanischen Händlern (von anderen liegen keine Zahlen vor) gehört die Z8 zu den meistverkauften Kameras. Nicht weil plötzlich alle Nikon-Fanboys geworden sind, sondern weil es einfach eine gute Kamera mit vielen Features ist. Auch wenn Dir das schwer fällt zu akzeptieren.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
@ cantsin

Ich bin genusowenig Nikon Markenbotschafter, wie Du einer für Panasonic. Ich rücke nur Deine stehts negativen Postings zu Nikon wieder ins richtige Licht ;)
Quatsch - um nur mal zwei meiner Postings zu nehmen:
viewtopic.php?p=1182367&hilit=nikon#p1182367
viewtopic.php?p=1183373#p1183373

Und was Panasonic betrifft, habe ich mich hier recht unverblümt z.B. zum kastrierten Log-Profil der GH5/s und dem unbrauchbaren Video-Autofokus meiner eigenen S5 geäußert, und sehe die Zukunft von MFT weitaus skeptischer als die von Nikon.

Bin da völlig agnostisch. Bei Dir ist das anders, weil Du aus der Berufsfotografie kommst, wo man sich i.d.R. auf ein System festlegt und wegen seiner Objektive und sonstigem Systemequipment nur im äußersten Notfall wechselt.

Space


Antwort von pillepalle:

Ja, es gibt seltene Ausnahmen, aber das kann über den Grundtenor nicht hinwegtäuschen.

Ich ergreife die Initiative, wenn ich das Gefühl habe es wird ein wenig zu einseitig. So wie jetzt, wo Du davon sprichst das man die Kamera nicht empfehlen könne. Und dann wird man dadurch gleich zum Markenbotschafter 😉

Und natürlich wechselt man als Profi nicht ständig das System, zumindest nicht ohne triftigen Grund. Heute Nikon morgen Sony, übermorgen Blackmagic und dann Panasonic. Das hat aber nichts mit Fanboy zu tun, sodern meist praktische Gründe.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Ich ergreife die Initiative, wenn ich das Gefühl habe es wird ein wenig zu einseitig. So wie jetzt, wo Du davon sprichst das man die Kamera nicht empfehlen könne.
Eine Kamera, deren Objektivmount sich lösen und die vom Kameragurt runterfallen kann (letzteres mit Risiken nicht nur für die Gesundheit des Geräts, sondern auch des Fotografen und anderer Menschen), ist der übelste Kamera-Fertigungsfehler, von dem ich in den letzten 20 Jahren gehört habe. Das ist ungefähr das Äquivalent eines Autos mit defekter Bremse.

Natürlich muss man von so einem Gerät abraten, oder zumindest abwarten, bis alle Kinderkrankheiten in der Produktion nachweislich auskuriert sind.

Als Profi solltest Du Dich für Deine Markenbotschafterei wenigstens bezahlen lassen, anstatt Dich hier wie ein Amateur-Fanboy zu gerieren. Wenn's um Nikon-Kameras geht, sind bei Dir ja nicht einmal Moirés mehr Moirés...

Space


Antwort von pillepalle:

Wenn ich mich recht erinnere löste sich nicht der Objektivmount, sondern es gab einige Objektive die sich nicht anschließen ließen. Also ein Fehler der ohnehin nur wenige Nutzer überhaupt betraf.

Und eine Kameragurt-Befestigung, die sich unter zu hoher Belastung lösen kann, ist lange nicht so dramatisch wie Du es darstellst. Wieviele Verletzte gab es schon deshalb? 😉 Wieviele Kameras oder Objektive zerstört? Wird der Mangel behoben? Genau, bisher alles halb so wild, aber im Internet wird das eben gerne hochgekocht.

Du fällst mir eben durch Deine einseitige Sicht auf die Dinge besonders auf und dann halte ich natürlich dagegen. Aber auch diesbezüglich werden wir uns kaum einig werden.

VG

Space



Space


Antwort von iasi:

cantsin hat geschrieben:
pillepalle hat geschrieben:
Ich ergreife die Initiative, wenn ich das Gefühl habe es wird ein wenig zu einseitig. So wie jetzt, wo Du davon sprichst das man die Kamera nicht empfehlen könne.
Eine Kamera, deren Objektivmount sich lösen und die vom Kameragurt runterfallen kann (letzteres mit Risiken nicht nur für die Gesundheit des Geräts, sondern auch des Fotografen und anderer Menschen), ist der übelste Kamera-Fertigungsfehler, von dem ich in den letzten 20 Jahren gehört habe. Das ist ungefähr das Äquivalent eines Autos mit defekter Bremse.

Natürlich muss man von so einem Gerät abraten, oder zumindest abwarten, bis alle Kinderkrankheiten in der Produktion nachweislich auskuriert sind.
Man muss es nun auch nicht dramatisieren.
Jeder Autohersteller hatte übrigens schon Rückrufaktionen, aufgrund von Fertigungsfehlern.

Nikon bietet Film-Raw - und zwar sehr gute Raw-Formate.
Die Z9 ist - abgesehen vom internen ND - die wohl ausgewogenste Fotokamera für Filmeinsatz.
Nur Canon bietet hier echte Konkurrenz.
Panasonic, Sony etc. haben nur Fotokameras mit Videofunktion im Angebot.

Space


Antwort von roki100:

iasi hat geschrieben:
Nur Canon bietet hier echte Konkurrenz.
Panasonic, Sony etc. haben nur Fotokameras mit Videofunktion im Angebot.

Interessant. Ist also Nikon keine Fotokamera mit Videofunktion oder umgekehrt? Nur wegen intern RAW ist extern RAW irrelevant? Hast Du mit ProRes RAW schonmal gefilmt?

Space


Antwort von pillepalle:

@ roki

Extern aufnehmen ist doch seit Jahren verpönt. Man könnte sich mit dem HDMI-Kabel strangulieren ;)

VG

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Nur Canon bietet hier echte Konkurrenz.
Panasonic, Sony etc. haben nur Fotokameras mit Videofunktion im Angebot.

Interessant. Ist also Nikon keine Fotokamera mit Videofunktion oder umgekehrt? Nur wegen intern RAW ist extern RAW irrelevant? Hast Du mit ProRes RAW schonmal gefilmt?
Video = debayerte Formate, die dem Endformat entsprichen (also 8bit/10bit)
Film = Formate, die Gestaltungsspielraum gegenüber dem Endformat bieten (also 12bit+)

Denn bei "Film" geht man von einem 10bit-Endformat aus.

Und HDMI für die Ausgabe von Raw zu nutzen, ist ein Gepfrimel und eine maue Notlösung.
Wikipedia schreibt dazu:
High Definition Multimedia Interface (englisch gesprochen , kurz HDMI) ist eine seit April 2002 entwickelte drahtgebundene Schnittstelle für die digitale Bild- und Ton-Übertragung in der Unterhaltungselektronik.

Space


Antwort von roki100:

Wie soll ich das jetzt verstehen, wenn ProRes RAW doch auch 12Bit ist...?

Alles andere also (wenn es um PRRAW und HDMI geht, dann besonders), was zur Datenübertragung benutzt wird, ist nur eine "Notlösung" oder/und kein "Film". Nur die direkte Datenübertragung über die Leiterbahnen auf derselben Platine, ist "Film" ?

Ich finde Toll, dass Nikon Z9 sowohl intern als auch extern RAW kann. Extern also - laut dir - nur "Gepfrimel und eine maue Notlösung" und intern, ist Film...?

Ich weiß, alles blöde Fragen, jedoch basierend auf deine Logik zu "Film" "Fotokamera" "Video", Datenübertragung über Kupferkabel oder direkt über Leiterbahnen usw. macht alles einen großen Unterschied, wenn es darum geht, wie die 12Bit RAW Daten auf Datenträger überhaupt gelangen... ;)

Space


Antwort von Darth Schneider:

Gähn, und die sinnlose Diskussion geht in die nächste Runde.
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Gähn, und die sinnlose Diskussion geht in die nächste Runde.
Gruss Boris
Du als Professor, BRAW-Workflow-Spezialist, MFT Prophezeier uvm. weißt sowieso alles besser... ;)

Da erklärt einer wozu HDMI im Jahr 2002 entwickelt wurde:; drahtgebundene Schnittstelle für die digitale Bild- und Ton-Übertragung in der Unterhaltungselektronik. und ignoriert völlig, dass HDMI im Jahr 2023 bei über 50 Kameras (incl. Nikon bzw.) auch für RAW Datenübertragung genutzt wird... ;) Es gibt also mittlerweile mehr Kameras die ext. RAW können, als Kamers, die intern RAW können....und das ist alles nur "Notlösung" oder "kein Film" etc.

Und SDI war damals auch etwas für Antennen auf den Dächern und auch Netzwerkanschluss für Datenübertragung... ;)

Space


Antwort von Darth Schneider:

@roki
Nur ein paar Sätze schreibe ich dazu, das nur weil du schon wieder anfängst mich direkt zu provozieren und scheinbar (deiner Antwort zufolge) meine zig Texte von früher diesbezüglich gar nicht richtig verstehen willst…(Die alle absolut dasselbe aussagen):

Ich habe nie behauptet ich weiss irgend etwas besser und ich bin auch gar kein BRaw Professor.

Nur externeres Recording über HDMI mag ich gar nicht.
Und auch kein ProRes RAW, wegen dem Workflow mit Resolve, meiner bevorzugten Schnittsoftware und eben wegen dem externen Recording über hdmi..

Und ja, natürlich mag ich BRaw warum auch nicht, geht auch kameraintern und Natur mit Resolve..?!
Und das alles kannst DU nicht ändern.
Gruss Boris

Space


Antwort von roki100:

Nur externeres Recording mag ich nicht… Ja, musst Du ja auch nicht...
Und auch kein ProRes RAW, wegen dem Workflow mit Resolve, meiner bevorzugten Schnittsoftware.
Und ja, natürlich mag ich BRaw warum auch nicht ?
Das ist toll. Doch das hast Du jetzt mindestens 1176 mal erwähnt und zwar immer dann, wenn "HDMI" - "ProRes RAW" Thema ist ;) Aber du solltest verstehen, dass andere das auch mit ProRes RAW können und dass es denen nicht darum geht, mit Boris, iasi & Co. wettbewerbe zu betreiben und jeden Thread damit zu bombardieren... Und wenn man darüber diskutierst, dann sollte man zumindest versuchen sachlich dabei zu bleiben. Beispiel: HDMI ist nicht nur HDMI von 2002, sondern HDMI kann auch zur Datenübertragung genutzt werden. Nikon, Sony, Panasonic..Atomos und Blackmagic nutzen das Netzwerkprotokoll, das schon seit langem über HDMI möglich ist.

Ob nun für Datenübertragung SDI, RJ45, SFP...oder HDMI genutzt wird, ist doch egal, hauptsache die Daten werden übertragen, das eine ist schneller, das andere langsamer usw. Und ob dafür Koaxialkabel, HDMI, Cat 5, 6 oder 7...oder Leiterbahnen auf der Platine, ist doch auch egal.

Space



Space


Antwort von iasi:

roki100 hat geschrieben:
Wie soll ich das jetzt verstehen, wenn ProRes RAW doch auch 12Bit ist...?

Alles andere also (wenn es um PRRAW und HDMI geht, dann besonders), was zur Datenübertragung benutzt wird, ist nur eine "Notlösung" oder/und kein "Film". Nur die direkte Datenübertragung über die Leiterbahnen auf derselben Platine, ist "Film" ?

Ich finde Toll, dass Nikon Z9 sowohl intern als auch extern RAW kann. Extern also - laut dir - nur "Gepfrimel und eine maue Notlösung" und intern, ist Film...?

Ich weiß, alles blöde Fragen, jedoch basierend auf deine Logik zu "Film" "Fotokamera" "Video", Datenübertragung über Kupferkabel oder direkt über Leiterbahnen usw. macht alles einen großen Unterschied, wenn es darum geht, wie die 12Bit RAW Daten auf Datenträger überhaupt gelangen... ;)
PRRAW und auch ProRes 4444 bieten 12bit und somit Gestaltungsspielraum für eine 10bit-Ausgabe.
Panasonic, Sony etc. bekommen es ja noch nicht mal gebacken, einen H264/265-12bit-Codec intern aufzuzeichnen. Man will´s bei diesen Herstellern eben billig haben.

Raw via HDMI an einen externen Rekorder? Das ist nun einmal eine Notlösung - vor allem eine billige Lösung.
HDMI hat man eh schon an der Kamera, dann kann man auch das Raw-Signal drüber schicken.
Dafür war HDMI eigentlich nicht gedacht, aber geht ja - ist billig und die Kunden müssen eben damit leben.

Wobei eine Sony a7R V von ihren 61 MPixeln dann doch nur 3.8K – 3848 x 2168 Raw an den Rekorder schickt.

FujiFilm GFX100S: gerade mal UHD in Raw mit 30fps.

Panasonic? ... up to 5.9K at up to 29.97fps ... - schlicht und einfach: lahm

Space


Antwort von iasi:

roki100 hat geschrieben:
Nur externeres Recording mag ich nicht… Ja, musst Du ja auch nicht...
Und auch kein ProRes RAW, wegen dem Workflow mit Resolve, meiner bevorzugten Schnittsoftware.
Und ja, natürlich mag ich BRaw warum auch nicht ?
Das ist toll. Doch das hast Du jetzt mindestens 1176 mal erwähnt und zwar immer dann, wenn "HDMI" - "ProRes RAW" Thema ist ;) Aber du solltest verstehen, dass andere das auch mit ProRes RAW können und dass es denen nicht darum geht, mit Boris, iasi & Co. wettbewerbe zu betreiben und jeden Thread damit zu bombardieren... Und wenn man darüber diskutierst, dann sollte man zumindest versuchen sachlich dabei zu bleiben. Beispiel: HDMI ist nicht nur HDMI von 2002, sondern HDMI kann auch zur Datenübertragung genutzt werden. Nikon, Sony, Panasonic..Atomos und Blackmagic nutzen das Netzwerkprotokoll, das schon seit langem über HDMI möglich ist.

Ob nun für Datenübertragung SDI, RJ45, SFP...oder HDMI genutzt wird, ist doch egal, hauptsache die Daten werden übertragen, das eine ist schneller, das andere langsamer usw. Und ob dafür Koaxialkabel, HDMI, Cat 5, 6 oder 7...oder Leiterbahnen auf der Platine, ist doch auch egal.
Die HDMI-Anschlüsse sind nicht für diese Art des Einsatzes gedacht.
Die Datenübertragung ist zudem schlicht zu langsam, um mit internen Aufzeichnungen mithalten zu können - und vor allem wird meist Auflösung (wohlgemerkt bei Raw, also den Sensordaten) und/oder Framerate beschnitten.

8.3K/60p/12bit Raw schafft keine Kamera via HDMI.

Space


Antwort von roki100:

iasi hat geschrieben:
Panasonic, Sony etc. bekommen es ja noch nicht mal gebacken, einen H264/265-12bit-Codec intern aufzuzeichnen. Man will´s bei diesen Herstellern eben billig haben.
m.M. ja, es wäre gut.
Man kann es aber auch so sehen: Hersteller XY macht alles, was derzeit intern möglich ist, Nikon kann intern auch RAW, also machen sie es für den Kunden. Und die anderen machen es für den Kunden intern 10Bit, denn nicht nur die Hersteller selbst, sondern auch die meisten Kunden sehen die Dinge anders als Foren&Co. Spezialisten und Professoren, sie machen auch kein VFX (sie machen damit höchstens das, was vll. Boris mit dem Superdupper-BRAW-Workflow macht, Farben bisschen verschieben oder LUTs Benutzen oder beides, und das war's...) und wer MEHR möchte, dem wird immernoch die Möglichkeit per HDMI serviert.
Raw via HDMI an einen externen Rekorder? Das ist nun einmal eine Notlösung - vor allem eine billige Lösung. Nein, sondern; Nikon, Sony, Panasonic..Atomos und Blackmagic nutzen das Netzwerkprotokoll (das schon seit langem über HDMI möglich ist), für RAW Datenübertragung...
HDMI hat man eh schon an der Kamera, dann kann man auch das Raw-Signal drüber schicken. Genau.
Die HDMI-Anschlüsse sind nicht für diese Art des Einsatzes gedacht. Eigentlich schon bzw, die großen Kamerahersteller wie Nikon, Sony, Panasonic, Fuji...und BMD mit VideoAssist, machen da mit. Nur deine erwartungen, sind anders bzw. momentan so nicht mögllich.
Panasonic? ... up to 5.9K at up to 29.97fps ... - schlicht und einfach: lahm Es ging eigentlich nicht um Panasonic, sondern ich meinte das alles allgemein...Dennoch, 24 oder 25 fps reicht für mich aus, und auch 4.1K 24-60p... auch mit 1080p 10bit 24-60p intern, bin ich zufrieden. Für dich also "lahm", für andere aber nicht.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Panasonic, Sony etc. bekommen es ja noch nicht mal gebacken, einen H264/265-12bit-Codec intern aufzuzeichnen. Man will´s bei diesen Herstellern eben billig haben.
m.M., ja, es wäre gut, ist aber jetzt auch kein muss, weil 10Bit intern auch gut ist und weil ext. PRRAW sowieso. Man kann es aber auch so sehen: Hersteller XY macht alles, was derzeit intern möglich ist, Nikon kann intern auch RAW, also machen sie es für den Kunden. Und die anderen machen es für den Kunden intern 10Bit, denn nicht nur die Hersteller selbst, sondern auch die meisten Kunden sehen die Dinge anders als Foren&Co. Spezialisten und Professoren, sie machen auch kein VFX (sie machen damit höchstens das, was z.B. Boris höchstwahrscheinlich mit dem Superdupper-BRAW-Workflow macht, Farben bisschen verschieben oder LUTs Benutzen oder beides, und das war's...) und wer MEHR möchte, dem wird immernoch die Möglichkeit per HDMI serviert, und wie Du auch weißt; PRRAW bietet 12bit und somit mehr Gestaltungsspielraum usw.
10 bit ist eben Video - was aus der Kamera kommt, landet ohne große Veränderungen auf dem Bildschirm.

Für Film braucht es eben die 12bit+. Und manche Hersteller sparen sich den Aufwand und legen einfach nur Raw am eh vorhandenen HDMI an - der Kunde kann dann ja schauen, wie er das dann nutzt kann.
Das Red-Patent bietet dann auch die schöne Ausrede, auch wenn ja eigentlich auch 12bit-NonRaw-Formate möglich wären - aber das ist den Herstellern zu teuer.

Nikon und Canon bieten bei ihren Fotokameras eben auch filmtaugliche 12bit-Raw - in voller Auflösung.
Darauf sind die Kameras dann eben auch ausgelegt.
roki100 hat geschrieben:
Raw via HDMI an einen externen Rekorder? Das ist nun einmal eine Notlösung - vor allem eine billige Lösung. Nein, sondern; Nikon, Sony, Panasonic..Atomos und Blackmagic nutzen das Netzwerkprotokoll (das schon seit langem über HDMI möglich ist), für RAW Datenübertragung...
HDMI hat man eh schon an der Kamera, dann kann man auch das Raw-Signal drüber schicken. Genau.
Gedacht als (billige) Vorschaulösung und das einfache Kamera-an-Heim-TV soll es nun als Aufnahmenadelöhr dienen.

roki100 hat geschrieben:
Die HDMI-Anschlüsse sind nicht für diese Art des Einsatzes gedacht. Doch :) Nur nicht so perfekt wie iasi wünscht... 8.3K 60fps und wenn das möglich wäre, dann wäre das immer noch nicht für dich gut, du würdest 120% mit mindestens 12k 120fps usw. kommen... ;)
Die sind eigentlich dazu gedacht, dass Onkel Rudolf die Kamera an den Fernseher anschließen kann, um der Familie gleich die eben gedrehten Videos zeigen zu können.
roki100 hat geschrieben:
Panasonic? ... up to 5.9K at up to 29.97fps ... - schlicht und einfach: lahm Es ging eigentlich nicht um Panasonic, sondern ich meinte das alles allgemein...Dennoch, 24 oder 25 fps reicht aus. Und 4.1K 24-60p auch... ich persönlich bin sogar auch mit 1080p 10bit 24-60p intern, zufrieden.
Dazu braucht es dann aber kein Modell von 2023 - auch nicht von 2022 - und auch nicht 2021 ... :)

Ich bin jetzt auch mit einem alten PC im Internet und tippe damit diese Zeilen. Dafür tut er´s. Kaufen würde ich mir so einen aber heute nicht mehr neu.
roki100 hat geschrieben:
Aber man sieht auch hier, dass man sich immer im Kreis dreht, egal in welchem Thread:
Mehr Ks und mehr FPS...wird zu Top Themen gemacht, was aber in wirklichkeit nicht ist.
Man erkennt darin, dass Du Spaß hast darüber zu diskutieren, es ist zu deinem Hobby geworden... Es geht nicht wirklich darum, wieviel Ks für die menschliche Auge mehr als genug ist, oder um irgendwelche (un)sichtbaren Details... Ich persönlich finde nicht, dass mehr Ks = mehr Filmic bedeutet, sondern andere Details im Bild sind entscheidender (z.B. eine gewisse Textur im Bild).

Ich würde es viel interessanter finden, wenn Du mit deine mehr Ks zeigen würdest, was du alles damit machen kannst, was die anderen mit weniger Ks nicht können usw. Bislang kam von dir aber nur zwei noise-Gebüsch-Bilder... ;)
Es geht um den Stand der Technik und das, was Kamerahersteller dem Kunden bieten.

4k/30p/10bit bieten heute Telefone.

Ich sehe es auch nicht ein, dass der tolle große DR in 10bit reingequetscht werden muss. Nvidia-Grafikkarten unterstützen z.B. HEVC mit 12bit - was hält Kamerahersteller davon ab, dies auch intern in ihren Kameras zu bieten?

Das Geplapper über die Anzahl meiner ins Internet gestellten Aufnahmen ändert daran rein gar nichts.

Ich hab in PAL, HDV, 8bit-420, cDNG, BRaw, RedRaw, ProRes etc. gedreht und dann auch bearbeitet - PAL will ich nicht mehr ...
Warum sollte ich heute noch auf 12bit verzichten?
Warum sollte ich heute noch via HDMI aufnehmen?

Mit dem AF früherer Zeiten gibt man sich zwar nicht mehr zufrieden, aber das Format, in dem die Aufnahmen festgehalten werden, muss nicht dem heutigen Stand der Technik entsprechen?! ;)

Space


Antwort von roki100:

4k/30p/10bit bieten heute Telefone. Auch 12Bit RAW(cDNG). Das bedeutet nicht dass Du jetzt 16Bit-Log brauchst, sondern dass auch App-Entwickler, Smartphonehersteller usw. mitgehen....
Das Geplapper über die Anzahl meiner ins Internet gestellten Aufnahmen ändert daran rein gar nichts. Ja, sorry, hätte ich nicht erwähnen müssen. Hab mein Beitrag geändert... Es wäre aber gut zu zeigen, wo es bei dir mit weniger Ks oder bits hackt...
Ich hab in PAL, HDV, 8bit-420, cDNG, BRaw, RedRaw, ProRes etc. gedreht und dann auch bearbeitet - PAL will ich nicht mehr ... Ich kenne auch niemanden der PAL will. Es geht doch nicht um den großen sprung von PAL zu HD (das könnte damals jeder gut sehen und war begeistert), sondern, dass ein gutes 4K und auch 1080p auf Smartphones, Tablets Bildschirme (auf das was heutzutage am meisten geschaut wird) gutgenug ist.
Warum sollte ich heute noch auf 12bit verzichten? Keiner sagt das, nur, dass 10Bit nicht so schlecht sind wie Du es immer wieder darstellst.
Warum sollte ich heute noch via HDMI aufnehmen? Niemand sagt, dass du es benutzen sollst. Sondern du sagst dass das quasi schlecht ist (ohne sachliche begründung, außer irgendwelche besondere wünsche, was aber sowieso nur wenige Kameras das intern können).
PRRAW-Kameraauswahl ist jetzt schon größer. Nikon mit intern RAW ist trotzdem auch dabei. Es gibt nur wenige Kameras, die intern RAW können, geschweige denn, 8.3k 60p. Und wer dann auch noch auf die Preise schaut, bleibt für ihn nur BMD übrig, jedoch mit Nachteilen (kein Body IS, AF...oder findet Formfaktor schlecht usw.), da sind andere kamerainterne Werkzeuge wertvoller, da nimmt man auch ext. ProRes RAW oder ext. BRAW gerne in Kauf.

Space


Antwort von iasi:

roki100 hat geschrieben:
4k/30p/10bit bieten heute Telefone. Auch 12Bit RAW(cDNG). Das bedeutet nicht dass Du jetzt 16Bit-Log brauchst, sondern dass auch App-Entwickler, Smartphonehersteller usw. mitgehen....
Also - das zeigt doch sogar umso deutlicher, dass wenn selbst Hacker es schaffen, 12bit Raw aus Telefonen zu holen, es für Kamerahersteller keine technischen Gründe gibt, 12bit in ihren Kameras nicht wegzuschreiben zu können.
Da fehlt also nur der Wille und/oder die Bereitschaft, die Kosten ein klein wenig für die 12bit-Lizenz steigen zu lassen.
roki100 hat geschrieben:
Das Geplapper über die Anzahl meiner ins Internet gestellten Aufnahmen ändert daran rein gar nichts. Ja, sorry, hätte ich nicht erwähnen müssen. Hab mein Beitrag geändert... Es wäre aber gut zu zeigen, wo es bei dir mit weniger Ks oder bits hackt...
Ich hab in PAL, HDV, 8bit-420, cDNG, BRaw, RedRaw, ProRes etc. gedreht und dann auch bearbeitet - PAL will ich nicht mehr ... Ich kenne auch niemanden der PAL will. Es geht doch nicht um den großen sprung von PAL zu HD (das könnte damals jeder gut sehen und war begeistert), sondern, dass ein gutes 4K und auch 1080p auf Smartphones, Tablets Bildschirme (auf das was heutzutage am meisten geschaut wird) gutgenug ist.
Warum sollte ich heute noch auf 12bit verzichten? Keiner sagt das, nur, dass 10Bit nicht so schlecht sind wie Du es immer wieder darstellst.
Es ist nicht so gut wie 12bit. Warum soll man auf das Bessere verzichten?

Wenn das Endformat 10bit ist - was es bei digitalem Film nun einmal ist - dann habe ich mit 10bit-Ausgangsmaterial nicht den Gestaltungsspielraum, den mir 12bit bietet.
Daher: "Film" erfordert 12bit.
Entspricht das Kamerabild/-format dem Ausgangsbild/-format, dann ist das "Video".

Wenn das Endformat 8bit ist, dann ist es ebenfalls "Video", denn es ist nicht für die Filmleinwand gedacht.

roki100 hat geschrieben:
Warum sollte ich heute noch via HDMI aufnehmen? Niemand sagt, dass du es benutzen sollst. Sondern du sagst dass das quasi schlecht ist (ohne sachliche begründung, außer irgendwelche besondere wünsche, was aber sowieso nur wenige Kameras das intern können).
PRRAW-Kameraauswahl ist jetzt schon größer. Nikon mit intern RAW ist trotzdem auch dabei. Es gibt nur wenige Kameras, die intern RAW können, geschweige denn, 8.3k 60p. Und wer dann auch noch auf die Preise schaut, bleibt für ihn nur BMD übrig, jedoch mit Nachteilen (kein Body IS, AF...oder findet Formfaktor schlecht usw.), da sind andere kamerainterne Werkzeuge wertvoller, da nimmt man auch ext. ProRes RAW oder ext. BRAW gerne in Kauf.
HDMI ist eine Steckverbindung für den lokalen Einsatz ohne mechanische Verriegelung und ohne Auslegung auf die Belastung im mobilen Einsatz. Sie ist auch nicht auf so hohe Datenraten ausgelegt, wie sie Raw bis hin zu 8k/60p erfordern würde - auch nicht kameraintern, wo HDMI eigentlich nur für den direkten Anschluss an einen TV gedacht war/ist.

Wenn ich auf die Preise schaue, dann stelle ich fest, dass Panasonic, Sony & Co. um ein paar Cent zu sparen, auf ein internes 12bit-Format verzichten.
Warum bieten sie denn kein Modell mit ProRes 4444 oder 12bit-HEVC oder 12bit AV1-Professional-Profile ...?

Space


Antwort von cantsin:

iasi hat geschrieben:
wenn selbst Hacker es schaffen, 12bit Raw aus Telefonen zu holen,
10bit Raw. Mehr können Smartphone-Sensoren bisher nicht (und ist wegen deren Signal-/Rauschabstand wahrscheinlich auch nicht sinnvoll).

Ansonsten ist Nikon als Video-/Cinema-Kamerahersteller ein Neuling (ggü. Sony, Canon und Panasonic, die schon jahrzehntelang in diesem Geschäft sind), gibt es noch diverse Ecken und Kanten beim Workflow mit deren Material - genau wie bei Fuji, ebenfalls einem Neuling in dieser Sparte - und wird niemand den Kameras bei kommerziellen Produktionen nur auf Grund der Spec Sheets kaufen.

Deswegen dürfte @pillepalle, weil er Berufsfotograf ist, der einzige hier im Forum sein, der Nikon-Kameras professionell für Bewegtbild einsetzt.

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:

Wenn das Endformat 10bit ist - was es bei digitalem Film nun einmal ist
DCP ist 12bit, nicht 10.

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
wenn selbst Hacker es schaffen, 12bit Raw aus Telefonen zu holen,
10bit Raw. Mehr können Smartphone-Sensoren bisher nicht (und ist wegen deren Signal-/Rauschabstand wahrscheinlich auch nicht sinnvoll).
Und dennoch ist dies mehr, als Panasonic, Sony & Co. mit ihren 10bit-Codecs in ihren expliziten und teureren Kameras bieten. :)
cantsin hat geschrieben:
Ansonsten ist Nikon als Video-/Cinema-Kamerahersteller ein Neuling (ggü. Sony, Canon und Panasonic, die schon jahrzehntelang in diesem Geschäft sind), gibt es noch diverse Ecken und Kanten beim Workflow mit deren Material - genau wie bei Fuji, ebenfalls einem Neuling in dieser Sparte - und wird niemand den Kameras bei kommerziellen Produktionen nur auf Grund der Spec Sheets kaufen.
Wie kommst denn auf diese Idee?

Welche Ecken und Kanten sollen das denn z.B. in Resolve sein?

Sicherlich wird niemand die Kamera bei kommerziellen Produktionen nicht nutzen, weil es ominöse "Ecken und Kanten" gibt.
cantsin hat geschrieben:
Deswegen dürfte @pillepalle, weil er Berufsfotograf ist, der einzige hier im Forum sein, der Nikon-Kameras professionell für Bewegtbild einsetzt.
Und was sagt das nun aus?

Space



Space


Antwort von roki100:

iasi hat geschrieben:
Warum bieten sie denn kein Modell mit ProRes 4444 oder 12bit-HEVC oder 12bit AV1-Professional-Profile ...?
Ich kann mir vorstellen, dass es von der Hardware abhängt. Ich weiß nicht, ob nur FPGA-Kameras das können, denn auch ältere BMD-Kameramodelle haben ProRes 4444 in der Firmware, ist intern aber deaktiviert...
Und Kamerahersteller wie BMD machen das nicht extra um Kunden zu ärgern. Die andere Kamerahersteller haben sicherlich auch irgendwelche Gründe die wir nicht kennen.

Es ist einfacher 10Bit als das zu sehen was es wirklich ist: für Colorgrading/Looks reicht es aus.
Es scheint schwer zu sein, wenn man glaubt, dass das nicht ausreicht und der Kamerahersteller absichtlich Notlösungen einbauen, um auf intern 12Bit 4444 zu verzichten.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:

Wenn das Endformat 10bit ist - was es bei digitalem Film nun einmal ist
DCP ist 12bit, nicht 10.
Na siehste - und wie sollen dann erst 10bit Codecs als Ausgangsmaterial reichen? :)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Warum bieten sie denn kein Modell mit ProRes 4444 oder 12bit-HEVC oder 12bit AV1-Professional-Profile ...?
Ich kann mir vorstellen, dass es von der Hardware abhängt. Ich weiß nicht, ob nur FPGA-Kameras das können, denn auch ältere BMD-Kameramodelle haben ProRes 4444 in der Firmware, ist intern aber deaktiviert...
Und Kamerahersteller wie BMD machen das nicht extra um Kunden zu ärgern. Die andere Kamerahersteller haben sicherlich auch irgendwelche Gründe die wir nicht kennen.

Es ist einfacher 10Bit als das zu sehen was es wirklich ist: für Colorgrading/Looks reicht es aus.
Es scheint schwer zu sein, wenn man glaubt, dass das nicht ausreicht und der Kamerahersteller absichtlich Notlösungen einbauen, um auf intern 12Bit 4444 zu verzichten.
Also wer im Bereich Punkten will, in dem auch das Kino anvisiert wird, bietet als Kamerahersteller 12bit+.

Es geht dabei übrigens nur ums Geld - um die Lizenzgebühren.
Canon und Nikon haben es geschafft, in ihre Fotokameras cine-Raw-Formate zu integrieren - die Konkurrenz schafft nicht mal 12bit-Codecs.

Kinefinity und DJI sind nach dem RAW-Verbot ziemlich schnell auf ProRes4444 umgestiegen.

Wo ein Wille ist, da ist auch ein Weg.

Space


Antwort von roki100:

Nun, wo jetzt bekannt ist, dass DCP 12Bit ist und um nach deiner 10Bit-Logik zu argumentieren, reichen die 12Bit nicht aus für 12Bit ausgabe.
Jetzt hast du was neues onboard: "12Bit+" (LOG)
Und da gibt es nur eine Kamera, Alexa 35 kann 13Bit in RAW. Da ist aber wenig Ks für dich....ein teuflischer Kreislauf. ;) Kinefinity und DJI sind nach dem RAW-Verbot ziemlich schnell auf ProRes4444 umgestiegen. DJI aktuell nicht, die haben ProRes RAW für ca. 1000€ extra. Und wenn man das hat, dann nochmal um die 1000€ damit PRRAW geschrieben werden kann. Der Wille ist da, aber der Geldbeutel leer.

Space


Antwort von cantsin:

iasi hat geschrieben:
Wie kommst denn auf diese Idee?

Welche Ecken und Kanten sollen das denn z.B. in Resolve sein?
N-Log ist suboptimal implementiert und schneidet bei der Z8/9 den Dynamikumfang ab ("N-Log as it is designed for now cannot hold more than 13 stops"). Bisher haben nur die traditionellen Video-/Cinekamerahersteller Sony, Canon und Panasonic + Arri, RED, Blackmagic und ZCam Log-Profile/-Workflows ohne Einschränkungen und Kinderkrankheiten. (Die Hersteller mit Problemen bei der Log-Implementierung sind allesamt traditionelle Fotokamerahersteller: neben Nikon auch Leica, Olympus/OM und Fuji.) Auch bei Raw ist der Dynamikumfang mit 10.2 Blenden bei SNR=2 für eine Kamera in dieser Preisklasse vergleichsweise gering. (Die Canon C70 hat z.B. ganze zwei Blenden mehr, ebenfalls bei Raw-Aufnahme. Mir fallen sowieso nur sehr wenige Gründe ein, weshalb man eine Z8/Z9 einer C70 vorziehen sollte, wenn es um reine Bewegtbildaufnahmen geht.)

Workflow-seitig nennst Du die Einschränkungen bereits in Deiner Frage: AFAIK unterstützt bisher nur Resolve N-Raw.

Hinzu kommt, dass die Z8/Z9 eine vergleichsweise noch neue und instabile Plattform ist, bei denen wichtige Features, Bugfixes und Verbesserungen erst durch Firmware-Updates nachgereicht wurden und werden, so wie bei Fuji nach Einführung der X-Spiegelloskameraserie oder bei Blackmagics allerersten Cinecams. Deswegen wird es, wie bei Blackmagic, erst ein paar Jahre dauern, bis sich Z8/Z9 in der Video- und Filmproduktion durchsetzen.

Weitere Punkte: Nikon hat für den Z-Mount keine spezifischen Cine-Objektive, auch keine videooptimierten Budget-Objektive (wie z.B. Panasonics L-Mount-Festbrennweiten mit konstanter Baugröße und minimiertem focus breathing, oder Lösungen wie bei Sony, um focus breathing in der Kameraelektronik zu kompensieren). Die Systemobjektive für den Z-Mount brauchen bei Raw-Aufnahme eigentlich profilbasierte Geometrie- und Abschattungskorrekturen, die es bei Resolve nicht gibt. Löst man diese Einschränkung dadurch, dass man optisch korrigierte Objektive (z.B. ältere Nikon-Fotoobjektive oder PL-Mount & Co.) an die Z8/Z9 adaptiert, verschenkt man sich die meisten Vorteile der (System-) Kamera ggü. Alternativkameras von Blackmagic, RED & CO., die für manuelle Objektive und manuelles Fokussieren ausgelegt sind.
cantsin hat geschrieben:
Deswegen dürfte @pillepalle, weil er Berufsfotograf ist, der einzige hier im Forum sein, der Nikon-Kameras professionell für Bewegtbild einsetzt.
Und was sagt das nun aus?
Er hat, als Fotograf und mit gutem Grund, ein völlig andere Sicht auf die Dinge. Als Fotograf hast Du Dein eigenes Studio, Dein Kit in einem System und bleibst dabei. Als Videograf/Ein-Mann-Crew-Kameramann hat man typischerweise eine Kamera mit vielleicht 2-3 Systemobjektiven, adaptiert den Rest und arbeitet, wo nötig bzw. ab bestimmten Budgets, mit Leihkameras aller möglichen Hersteller. Außerdem ist es völlig normal, für eine Produktion alle möglichen unterschiedlichen Kameras einzusetzen und zu mischen (z.B. eine GoPro, eine kleine Blackmagic und eine größere Sony oder RED). Und weil gerade bei den spiegellosen Systemkameras noch viel mehr in Entwicklung ist (Sony und Canon hatten bis vor kurzem nur 8bit-Video, Nikon hat erst seit einem Jahr Kameras mit ernstzunehmenden internen Codecs etc.), gibt es bei Videografen viel weniger System- und Markenbindung. Wobei sich das mit dem Ausreifen der Technologie, der zunehmenden Wichtigkeit von Video-AF und AI-gestützten Bildfunktionen wahrscheinlich ändern wird.

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Wie kommst denn auf diese Idee?

Welche Ecken und Kanten sollen das denn z.B. in Resolve sein?
N-Log ist suboptimal implementiert und schneidet bei der Z8/9 den Dynamikumfang ab ("N-Log as it is designed for now cannot hold more than 13 stops"). Bisher haben nur die traditionellen Video-/Cinekamerahersteller Sony, Canon und Panasonic + Arri, RED, Blackmagic und ZCam Log-Profile/-Workflows ohne Einschränkungen und Kinderkrankheiten. (Die Hersteller mit Problemen bei der Log-Implementierung sind allesamt traditionelle Fotokamerahersteller: neben Nikon auch Leica, Olympus/OM und Fuji.) Auch bei Raw ist der Dynamikumfang mit 10.2 Blenden bei SNR=2 für eine Kamera in dieser Preisklasse vergleichsweise gering. (Die Canon C70 hat z.B. ganze zwei Blenden mehr, ebenfalls bei Raw-Aufnahme. Mir fallen sowieso nur sehr wenige Gründe ein, weshalb man eine Z8/Z9 einer C70 vorziehen sollte, wenn es um reine Bewegtbildaufnahmen geht.)

Workflow-seitig nennst Du die Einschränkungen bereits in Deiner Frage: AFAIK unterstützt bisher nur Resolve N-Raw.

Hinzu kommt, dass die Z8/Z9 eine vergleichsweise noch neue und instabile Plattform ist, bei denen wichtige Features, Bugfixes und Verbesserungen erst durch Firmware-Updates nachgereicht wurden und werden, so wie bei Fuji nach Einführung der X-Spiegelloskameraserie oder bei Blackmagics allerersten Cinecams. Deswegen wird es, wie bei Blackmagic, erst ein paar Jahre dauern, bis sich Z8/Z9 in der Video- und Filmproduktion durchsetzen.

Weitere Punkte: Nikon hat für den Z-Mount keine spezifischen Cine-Objektive, auch keine videooptimierten Budget-Objektive (wie z.B. Panasonics L-Mount-Festbrennweiten mit konstanter Baugröße und minimiertem focus breathing, oder Lösungen wie bei Sony, um focus breathing in der Kameraelektronik zu kompensieren). Die Systemobjektive für den Z-Mount brauchen bei Raw-Aufnahme eigentlich profilbasierte Geometrie- und Abschattungskorrekturen, die es bei Resolve nicht gibt. Löst man diese Einschränkung dadurch, dass man optisch korrigierte Objektive (z.B. ältere Nikon-Fotoobjektive oder PL-Mount & Co.) an die Z8/Z9 adaptiert, verschenkt man sich die meisten Vorteile der (System-) Kamera ggü. Alternativkameras von Blackmagic, RED & CO., die für manuelle Objektive und manuelles Fokussieren ausgelegt sind.
Cine-Objektive an einer Foto-Kamera mit AF verschenkt die großen Vorteile eben dieser Kameras: AF und Größe/Gewicht.

Was bringt mir denn ein hoher DR, wenn ich dann mit 10bit beschnitten bin und die Mitten nicht derart variieren kann, wie bei 12bit. Der DR bei Raw ist wohl hoch genug, wenn gejammert wird, dass N-log nicht mehr als 13 stops erlaubt.
Bei einer Aufnahme mit einem Kontrast, der nach mehr als 13 Blendenstufen DR verlangt, sind die Helligkeiten nicht so schön verteilt, dass ich´s nur ein wenig zusammen drücken muss. Meist müssen die Mitten verschoben werden, was reichlich Spielraum erfordert.

Jeder Fotokamera-Hersteller schiebt kurz nach Start eines neuen Modells mehrere Firmware-Updates hinterher.
Bei vielen muss man zudem warten und oft nochmal Geld nachschießen, um alle Features zu erhalten.

C70 vs Z9?
Da fallen mir also reichlich Unterschiede ein, die durchaus Tragweite besitzen.
S35 vs FF
4k vs 8k
um nur mal 2 zu nennen.

Ich kann übrigens nicht verstehen, weshalb man zu einer Panasonic greifen soll. Meine GH5 ... (oh je).

Space


Antwort von Darth Schneider:

@iasi
Wobei, ich kenne zwar die Gh5 zwar nicht aber die Panasonic S5 und die S5II würde ich schon nicht unterschätzen..Aber mit einer Z9 können die beiden Panasonics natürlich auch nicht mithalten und internes RAW können die nicht.
Gruss Boris

Space


Antwort von pillepalle:

Ja, keine Ahnung warum Cantsin einer der besten DLSM am Markt schlecht zu reden versucht? N-Log suboptimal implementiert... au weia.

Zunächst mal ist die C70 eine reine Cinecam und keine Hybrid Kamera. Also schon mal Äpfel mit Birnen verglichen. Man kann N-RAW auch nicht nur in Resolve entwickeln, aber woher soll Cantsin das auch wissen, wenn er weder jemals mit N-RAW noch mit den Kameras gearbeitet hat? Man kann sogar Objektivkorrekturen auf die N-RAW Dateien anwenden, etwas was mit den Kameras des Mitbewerbs nicht möglich ist. Es gibt kaum einen anderen RAW Codec der sich so leicht verarbeiten läßt und selbst auf normalen Rechnern flüssig läuft. Es gibt viele gute Gründe für N-RAW. Und es ist ja nicht so, daß man bei den Kameras keine Alternativen hätte. Man kann auch in ProRes RAW, ProRes, H265/264, in 10 und 8 Bit aufnehmen. Das meiste davon sogar in mehreren Cropmodi.

Sein Wissen über Nikon beruht eben nur auf Hörensagen und vermutlich spielt die eigene Phantasie auch eine große Rolle. Wo die Nikon Plattform instabil sein soll bleibt vermutlich für immer sein Geheimnis :) Denn wäre er halbwegs informiert wüßte er, daß Nikon die Features seiner Kameras mit recht beeindruckenden Firmware Updates erweitert. Bugfixes gibt es da nicht mehr als in jedem anderen System.

Keine Cine-Objektive im Z-Mount? Cine Objektive sind normalerweise im PL-, oder LPL-Mount. Warum? Weil Cinekameras in der Regel einen Pl- oder LPL-Mount haben. Macht auch wenig Sinn ein Fuji Premista mit festem kurzem Auflagenmaß zu kaufen. Die Adaptiert man besser und bleibt flexibel für verschiedene Systeme ;) An den Nikon Mount kann man so ziemlich alles Adaptieren. Sogar Sony-E Mount Optiken mit AF. Vom Mount her geht's kaum vielseitiger. Mittlerweile gibt es für den Z-Mount über 60 Native Objektive mit AF (inkl. Dritthersteller), etliche F-Mount Optiken mit AF und etliche manuelle Optiken. Und gerade bei den Objektiven hat Nikon viel richtig gemacht, denn sie müssen nicht (wie andere Hersteller) ins Bild croppen um das Beathing zu entfernen, sondern viele Z-Optiken pumpen von Haus aus wenig. Objektivseitig spricht jedenfalls nicht wirklich viel gegen Nikon und je mehr Zeit vergeht desto größer wird auch das Protfolio.

Ja, Nikon Kameras haben nicht den größten Dynamic Range am Markt, aber er ist auch nicht soviel schlechter als der Mitbewerb. Das Nikon Material ist weniger verarbeitet und rauscht etwas mehr. Deshalb ist sie bei SN=2 auch nicht so gut. Aber vieles vom Rauschen läßt sich entfernen. Wer sich ein halbwegs objektives Bild von N-RAW machen möchte, der kann das gerne bei CineD nachlesen. Beim Latitude Test schneiden die Kameras sogar sehr gut ab, sowohl bei CineD alsauch bei slashCAM.

https://www.cined.com/nikon-z-9-n-raw-l ... -latitude/

VG

Space


Antwort von Darth Schneider:

@Pille
Das mit dem DR ist doch eh relativ und wird von einigen hier voll überbewertet.
Ich persönlich denke mir nur Leute wie Frank und wahrscheinlich nicht mal eine halbe Hand voll andere hier auf SlashCAM können (und müssen) überhaupt mehr als 12/13 Stops DR jemals ausreizen…
Wenn überhaupt so viel..;)
Zumindest von denen die ständig darüber schreiben wie wichtig möglichst viel DR sein soll.

Und die Nikons sind ganz bestimmt tolle Kameras..
Sonst würden die sich nicht seit Jahrzehnten so gut verkaufen.
Gruss Boris

Space



Space


Antwort von pillepalle:

@ Darth

Na ja, eine hohe Dynamik ist schon nützlich. Aber man sollte Kameras eben nicht nur aufgrund einer Eigenschaft, die nicht Rekordverdächtig ist, gleich abschreiben. Die Kameras haben so viele Coole Features, das sie den Makel leicht aufwiegen.

VG

Space


Antwort von Darth Schneider:

Natürlich ist viel DR nützlich, aber eigentlich Alle aktuellen Kameras ab 1000 € bieten genug DR für sehr, sehr vieles…
Und was nützen denn schlussendlich 14 Stops bei einer kleinen S5 wenn der Autofokus beim filmen so beschissen ist ?
Wenig, zumindest mir.
Lieber gar kein Autofokus beim filmen, wie bei den Pockets, dann weiss man wenigstens von Anfang an woran man ist.
Gut zum fotografieren finde ich den Autofokus der S5 super…
Dafür hab ich sie ja auch gekauft.
Gruss Boris

Space


Antwort von pillepalle:

@ Darth

Klar. Für manche Situationen hat der Liebe Gott auch das Filmlicht erfunden :)

VG

Space


Antwort von Darth Schneider:

@Pille
Darum plane ich auch mir zu Weinachten mir gar kein Glas sondern zwei 150/200 Watt Leuchten zu kaufen oder nur eine dafür mit 300 Watt…
Gruss Boris

Space


Antwort von pillepalle:

Das wird Dich vermutlich auch weiter bringen als jede weitere Optik.

VG

Space


Antwort von Darth Schneider:

@Pille
Wobei manuell fokussieren werde ich so oder so, und viel Bewegung mit dem Gimbal somit möglichst vermeiden versuchen..
Weil der Autofokus bei der S5 wird mit mehr Licht auch nicht wirklich besser, nur die Bilder werden schöner, wenn sie dann auch scharf sind…;))
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@Pille
Das mit dem DR ist doch eh relativ und wird von einigen hier voll überbewertet.
Ich persönlich denke mir nur Leute wie Frank und wahrscheinlich nicht mal eine halbe Hand voll andere hier auf SlashCAM können (und müssen) überhaupt mehr als 12/13 Stops DR jemals ausreizen…
Wenn überhaupt so viel..;)
Zumindest von denen die ständig darüber schreiben wie wichtig möglichst viel DR sein soll.

Und die Nikons sind ganz bestimmt tolle Kameras..
Sonst würden die sich nicht seit Jahrzehnten so gut verkaufen.
Gruss Boris
Eigentlich ist umgekehrt:

Jeder kann den DR jeder Kamera ausreizen, aber nicht jeder kommt auch mit 12/13 Stops DR zurecht.

Wobei 12/13 Stops DR eigentlich schon sehr viel ist.

Space


Antwort von Darth Schneider:

@iasi
Genau so hatte ich das eigentlich auch gemeint.

Was die Höhe der DR Zahlen betrifft, etwas hoch angesetzt, ich weiss, sollte wahrscheinlich mehr so um die 9/10 Stops DR sein, womit die meisten Filmer heute überhaupt umgehen können…

Ich wollte nicht mit der Tür gleich ins Haus fallen.;))
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Genau so hatte ich das eigentlich auch gemeint.

Was die Höhe der DR Zahlen betrifft, etwas hoch angesetzt, ich weiss, sollte wahrscheinlich mehr so um die 9/10 Stops DR sein, womit die meisten Filmer heute überhaupt umgehen können…

Ich wollte nicht mit der Tür gleich ins Haus fallen.;))
Gruss Boris
Mit 9/10 Stops DR können noch viel weniger Leute umgehen.
Es ist gar nicht so schwer eine Kamera mit 9 Stops DR mal eben zum Clippen zu bringen und/oder die Schatten absaufen zu lassen - das bekommen viele hin.
Aber auch mit 9 Stops DR ordentlich belichtete Bilder hinzubekommen, bekommen eben gerade nicht viele Leute hin.

Space



Space


Antwort von cantsin:

pillepalle hat geschrieben:
Ja, keine Ahnung warum Cantsin einer der besten DLSM am Markt schlecht zu reden versucht? N-Log suboptimal implementiert... au weia.
Quelle habe ich beigefügt, sachliche Argumente zu diesem Thema hast Du scheinbar nicht.
Zunächst mal ist die C70 eine reine Cinecam und keine Hybrid Kamera. Lies mal richtig, was ich oben genau geschrieben habe.
woher soll Cantsin das auch wissen, wenn er weder jemals mit N-RAW noch mit den Kameras gearbeitet hat? Tatsächlich habe ich mit N-RAW in Resolve gearbeitet.

Wenn Du auf diesem Fake News-Niveau diskutierst, können wir es auch sein lassen.

Man kann sogar Objektivkorrekturen auf die N-RAW Dateien anwenden, etwas was mit den Kameras des Mitbewerbs nicht möglich ist. ACK, das kam in der Tat mit einer der letzten Firmware-Updates und hatte ich nicht mehr auf dem Schirm.

Sein Wissen über Nikon beruht eben nur auf Hörensagen und vermutlich spielt die eigene Phantasie auch eine große Rolle. Wo die Nikon Plattform instabil sein soll bleibt vermutlich für immer sein Geheimnis Denn wäre er halbwegs informiert wüßte er, daß Nikon die Features seiner Kameras mit recht beeindruckenden Firmware Updates erweitert. Das ist ja die Definition von instabiler Plattform. Dass Du, wenn Du die Kamera vom Verleiher holst, nicht weisst, welche Firmware aufgespielt ist und ob die Features, die Du brauchst/erwartest (wie z.B. N-Raw) überhaupt zur Verfügung stehen.

Wie gesagt, sind das die typischen "growing pains" einer neuen Plattform. Bei Blackmagic war es ja anfangs auch nicht anders, wo man je nach Firmware-Version z.B. CinemaDNG oder BRaw als Codec hatte.

Du musst mal einfach Deine Studiofotografenbrille abnehmen. Du bist hier in einem Bewegtbildforum. Da hat Nikon als Kamerahersteller vor der Z9 ungefähr die Rolle gespielt wie RED für Fotografie (tatsächlich gab es in der Vergangenheit ein paar Fotografen, die mit REDs als Highspeed-Stillkameras gearbeitet haben). Und ist jetzt in einer ähnlichen Rolle wie Blackmagic vor zehn Jahren. Bis man Nikon-Kameras in signifikanter Quantität in den "technical credits" von IMDB, shotonwhat.com & Co. oder auch nur im Einsatz bei Eventvideografen finden wird, werden noch ein paar Jahre vergehen.

Space


Antwort von iasi:

cantsin hat geschrieben:
Sein Wissen über Nikon beruht eben nur auf Hörensagen und vermutlich spielt die eigene Phantasie auch eine große Rolle. Wo die Nikon Plattform instabil sein soll bleibt vermutlich für immer sein Geheimnis Denn wäre er halbwegs informiert wüßte er, daß Nikon die Features seiner Kameras mit recht beeindruckenden Firmware Updates erweitert. Das ist ja die Definition von instabiler Plattform. Dass Du, wenn Du die Kamera vom Verleiher holst, nicht weisst, welche Firmware aufgespielt ist und ob die Features, die Du brauchst/erwartest (wie z.B.) N-Raw überhaupt zur Verfügung stehen.

Wie gesagt, sind das die typischen "growing pains" einer neuen Plattform. Bei Blackmagic war es ja anfangs auch nicht anders, wo man je nach Firmware-Version z.B. CinemaDNG oder BRaw als Codec hatte.

Du musst mal einfach Deine Studiofotografenbrille abnehmen. Du bist hier in einem Bewegtbildforum. Da hat Nikon vor der Z9 ungefähr die Rolle gespielt wie RED für Fotografie (tatsächlich gab es in der Vergangenheit ein paar Fotografen, die mit REDs als Highspeed-Stillkameras gearbeitet haben). Und ist jetzt in einer ähnlichen Rolle wie Blackmagic vor zehn Jahren. Bis man Nikon-Kameras in signifikanter Quantität in den "technical credits" von IMDB, shotonwhat.com & Co. finden wird, werden noch ein paar Jahre vergehen.
Firmware-Updates macht jeder Hersteller.
Auch Arri:
https://www.arri.com/resource/blob/3181 ... s-data.pdf

Was du daraus hier jetzt konstruierst, ist schon recht abenteuerlich.

Und dass man eine neue Kamera in technical credits" von IMDB, shotonwhat.com & Co. erst in ein paar Jahren in hoher Zahl finden wird, ist ja wohl logisch und hat nichts mit dem Hersteller zu tun.

Bisher findest du wohl auch noch nicht viele Filme, die mit einer Alexa 35 gedreht wurden.

Space


Antwort von pillepalle:

cantsin hat geschrieben:
Quelle habe ich beigefügt, sachliche Argumente zu diesem Thema hast Du scheinbar nicht.
Du hast den cineD Test als Quelle angegeben, die Quelle schreibt nur etwas anderes als Du behauptest ;) Das N-Log suboptimal implementiert ist stimmt einfach nicht. Jede Log-Kurve ist etwas anders. Sonst gäbe es auch nicht verschiedene für verschiedene Kameras. Wenn sie Dir nicht gefällt ist das Dein persönlicher Geschmack, hat aber nichts mit der Implementierung zu tun.

Lies mal richtig, was ich oben genau geschrieben habe. Habe ich. Du würdest lieber mit einer C70 filmen weil sie beim Dynamiktest besser abschneidet. Trotzdem hinkt der Vergleich.
ACK, das kam in der Tat mit einer der letzten Firmware-Updates und hatte ich nicht mehr auf dem Schirm. Das kam nicht mit einer der letzten Firmware-Updates, das ging von Anfang an mit N-RAW, sofern die Software das auch unterstützt.
Das ist ja die Definition von instabiler Plattform. Dass Du, wenn Du die Kamera vom Verleiher holst, nicht weisst, welche Firmware aufgespielt ist und ob die Features, die Du brauchst/erwartest (wie z.B. N-Raw) überhaupt zur Verfügung stehen. Das ein Hersteller seine Produkt pflegt und mit neuen Features erweitert hat nichts mit Instabil zu tun. Man sollte sich bei jeder Kamera die man sich leiht über die Firmware informieren. Da hat iasi vollkommen Recht. Du interpretierst da einfach Dinge hinein die jeder Grundlage entbehren. Du kannst Dir sicher sein das jede Rentkamera mindestens das Firmware-Update 2.0, mit dem N-RAW in die Kamera kam, bereits installiert hat. Und so ein Firmware-Update ist übrigens innerhalb von 15 Minuten erledigt.
Du musst mal einfach Deine Studiofotografenbrille abnehmen. Du bist hier in einem Bewegtbildforum. Da hat Nikon als Kamerahersteller vor der Z9 ungefähr die Rolle gespielt wie RED für Fotografie (tatsächlich gab es in der Vergangenheit ein paar Fotografen, die mit REDs als Highspeed-Stillkameras gearbeitet haben). Und ist jetzt in einer ähnlichen Rolle wie Blackmagic vor zehn Jahren. Bis man Nikon-Kameras in signifikanter Quantität in den "technical credits" von IMDB, shotonwhat.com & Co. oder auch nur im Einsatz bei Eventvideografen finden wird, werden noch ein paar Jahre vergehen. Ich habe keine Studiofotografenbrille auf und in keinem Satz gesagt, dass die Z9/Z8 jetzt bei Filmemachern besonders populär wären. Ich muss sie auch nicht bewerben. Mir ist wirklich egal womit andere Leute filmen. Jeder der halbwegs planvoll handelt, wechselt ohnehin nicht das System wegen einer neuen Kamera. Mich stört nur wenn Leute wie Du die Kameras als unzuverläßig bzw. unausgegoren hinstellen und kaum eine Gelegenheit auslassen sie schlechter zu reden als sie sind.

Das mit der Gurtbefestigung der Z8 ist natürlich ärgerlich. Aber es gibt im Internet bisher ganze 9 dokumentierte Fälle von Nutzern mit diesem Problem. Von zehntausenden Z8 Nutzern die mit so einer Kamera unterwegs sind. Nikon hat innerhalb von 2 Wochen darauf reagiert und Nutzer aufgefordert nachzuschauen ob ihre Seriennummer davon betroffen ist. Sozusagen in vorauseiliendem Gehorsam, bevor ein größeres Problem daraus werden kann. Besser kann man als Hersteller mit soetwas nicht umgehen.

Die Nikon Kundschaft kommt generell eher aus dem Fotobereich und für Filmemacher ist sie ein eher neuer Player im Videosegment. Sie verkaufen sich aber sehr gut und finden unter den Hybridnutzern großen Anklang. DSLMs sind generell nicht die erste Wahl, wenn es um größere Filmproduktionen geht. Die werden vielleicht mal als B-Cam, oder bei Low-Budget Produktionen eingesetzt werden, aber nicht bei großen Features. Daran ändert die Z9 auch nichts.

Trotzdem ist sie seit ihrem Erscheinen immer noch eine der leistungsfähigsten Kameras ihrer Klasse. Mit einem Featureset das ziemlich einzigartig am Markt ist. Natürlich ist auch bei den Kameras nicht alles perfekt. Auch wurde im Laufe der Zeit klar das die Z8, quasi eine Budgetversion der Z9, einige Einschränkungen gegenüber der Z9 hat. Insbesondere was die Laufzeiten bei Nutzung der anspruchsvolleren Video-Codes betrifft. Man merkt aber das Nikon in den letzten Jahren große Anstrengungen unternommen hat auch die Videoklientel zu bedienen. Sie hören zu und packen alle Features die möglich sind in ihre Kameras, denn sie haben keine reinen Filmkameras, die dadurch kanibalisiert werden könnten. Insofern sorgen sie auch für etwas Bewegung im Videomarkt.

VG

Space


Antwort von cantsin:

Um mal diese teilweise unerfreuliche Diskussion fortzusetzen:
pillepalle hat geschrieben:
Du hast den cineD Test als Quelle angegeben, die Quelle schreibt nur etwas anderes als Du behauptest ;) Das N-Log suboptimal implementiert ist stimmt einfach nicht.
Zitate aus dem Artikel:

"Unfortunately and as expected, (see the dynamic range section above), the currently implemented N-Log gamma curve does not allow to pull up shadows without heavy posterization/banding."

"As you can see, also for ProRes HQ I had to tame down the chroma noise reduction, otherwise, the image loses all its color. The ugly posterization/banding is very pronounced, rendering the image unusable.

So, no difference can be found using 4K ProRes HQ – mainly because of the aforementioned N-Log implementation. Let’s hope Nikon can come up with something like N-Log2 to better reflect the potential of this sensor in a future firmware update!"

Da steht also wörtlich, dass N-Log suboptimal implementiert ist. Ich weiß nicht, wie man das anders interpretieren sollte. Deckt sich ja auch mit einschlägigen Forenweisheiten (hier z.B. von Dennis/DeeZid).

Und, wie schon geschrieben, steht Nikon damit nicht alleine, sondern haben die meisten Hersteller Probleme mit Log-Profilen in Hybridkameras. Sonys SLog2/3 war bis zur A7sIII durch 8bit kastriert (und führte bei Umwandlung zu heftigen Tonwertabrissen) und ist für viele Geschmäcker zu stark prozessiert (=entrauscht), Panasonics VLog-L in der GH5 (der ersten 10bit-Hybridkamera) nutzt nur einen eingeschränkten Wertebereich und wirft dadurch ein Bit Farbtiefe weg, Fujis F-Log ist aggressiv Chroma-entrauscht und führt bei Umwandlung zu drastisch reduzierter Farbdifferenzierung ggü. den festen Rec709-Profilen, Canons C-Log in den heutigen Hybridkameras schneidet ebenfalls die Dynamik ab (was möglicherweise eine gewollte Einschränkung ggü. C-Log in der C-Kameraserie ist) und filtert bei der R7 in den Schatten die Farben weg (siehe Slashcam-Test). Die Log-Profile von Olympus und Leica sind so obskur, dass es dafür nur Hersteller-Rec709-LUTs und keine Unterstützung in den Farbraum-Umwandlungen und im Farbmanagement von Resolve & Co. gibt. Sigma ist bei der Implementation eines Log-Profils für die fp nach eigener Aussage gescheitert und musste dieses bereits (für ein Firmware-Update) angekündigte Feature zurückziehen.

Die Implementation eines guten Log-Profils scheint also eine ingenieurtechnische Kunst zu sein, die bisher nur in Cine-Kameras (Blackmagic, RED, Arri, Canon C, Sony FS/Cinealta, ZCam) Hersteller- und Modell-unabhängig zuverlässig beherrscht wird.

Lies mal richtig, was ich oben genau geschrieben habe. Habe ich. Du würdest lieber mit einer C70 filmen weil sie beim Dynamiktest besser abschneidet. Trotzdem hinkt der Vergleich.
Du hattest geschrieben, ich würde Äpfel mit Birnen (bzw. Hybrid- mit Videokameras) vergleichen, obwohl ich in meinem Originalposting explizit darauf eingegangen bin. Keine saubere Form der Diskussion und des Umgangs miteinander.


Das kam nicht mit einer der letzten Firmware-Updates, das ging von Anfang an mit N-RAW, sofern die Software das auch unterstützt. Okay, dann war meine Hinterkopf-Informationsquelle doch ein früheres Posting von Dir hier im Forum, die sich vermutlich auf Assimilate Scratch bezog? - Auch andere Video-Rawformate wie CinemaDNG speichern Objektivmetadaten, nur sieht es bei deren Auswertung bzw. bei der optischen Korrektur in Resolve und fast allen Raw-Video-bearbeitenden Programmen (inkl. FCP und Premiere) mau aus. Weswegen Video-Raw aus Systemkameras in der Praxis bzw. in den gängigen Postproduktionsworkflows ein echtes Problem bleibt.

Übrigens noch zu meiner Praxiserfahrung mit Z9-N-Raw in Resolve: Die war eher gemischt. Auf der Linux-Version von Resolve Studio wird N-Raw nämlich nicht unterstützt, so musste ich für das Projekt Windows booten, und da schaffte mein Rechner (12-Core-Ryzen, 64 GB, GTX 1080 Ti) kein flüssiges Abspielen des 8K-Materials. Sonst schafft er 6K CinemaDNG und 12K Braw problemlos.

Hast Du eigentlich überhaupt eine Z9/Z8 und schreibst hier aus eigener Erfahrung? Du warst doch bisher nur mit einer Z6 und ProRes Raw unterwegs.
Das ein Hersteller seine Produkt pflegt und mit neuen Features erweitert hat nichts mit Instabil zu tun. Man sollte sich bei jeder Kamera die man sich leiht über die Firmware informieren. Da hat iasi vollkommen Recht. iasi, dessen Beiträge sowieso eine eigene Marke sind, hatte hier einen schiefen Vergleich mit der Tatsache gemacht, dass auch Firmen wie Arri Firmware-Updates machen.

Ja, natürlich, aber die Z9 wurde hinsichtlich der ankündigten Videofeatures noch faktisch mit einer Beta-Firmware ausgeliefert, und erst danach wurden diese per Updates nachgeliefert. Das ist zwar schön für Nikon-Besitzer und war früher bei Kameras wie der Blackmagic OG Pocket (die erst nur ProRes und erst später Raw konnte) und der Sigma fp auch nicht anders, aber waren die eben Feature-/firmwareseitig un den Grundfunktionen nicht von Anfang an ausgereift. Und wie gesagt, sind das die typischen "growing pains" von Herstellern, die in neue Segmente (Blackmagic damals: Kameras überhaupt, Sigma und Nikon: Hybridkameras) einsteigen. Meine eigene fp würde ich mir auch nicht als Verleihkamera holen, weil bei der - wie bei Nikon - die Änderungen durch Firmware-Updates teilweise substantiell waren. (Ansonsten würde sich mein Verleiher - wahrscheinlich kostspielig - bedanken, wenn ich an der Firmware einer geliehenen Kamera rumdoktern würde...)

Man merkt aber das Nikon in den letzten Jahren große Anstrengungen unternommen hat auch die Videoklientel zu bedienen. Sie hören zu und packen alle Features die möglich sind in ihre Kameras, denn sie haben keine reinen Filmkameras, die dadurch kanibalisiert werden könnten. Insofern sorgen sie auch für etwas Bewegung im Videomarkt. Da bin ich übrigens ganz bei Dir. Ich denke nur, dass Nikon es als Spätkommer nicht leicht haben wird. Auch Hybridkameras sind heutzutage kein Wachstumssegment mehr. IMHO wird viel davon abhängen, wie weit sie die Videofeatures der Z8/9 auch in die Z6-Klasse und im besten Fall in die APS-C-Modelle bringen können (wie Canon mit der R6, R8 und R7 und Sony mit der A7iv, FX30/A6700 und der demnächst anstehenden, von der A7iv abgeleiteten A7C ii). Ihr bestes Kapital ist IMHO, dass sie neben Canon als einziger Hersteller interne Raw-Aufzeichnung haben und die Kompatibilität zum klassischen Nikon F-Bajonett.

Space


Antwort von pillepalle:

@ cantsin

Es gibt bereits eine neue Version von N-Log. Von daher sind die Tests von cineD ohnehin bereits veraltet. Du wirfst Nikon etwas vor, was praktisch keine Hybridkamera perfekt umsetzt. Auch bei der Panasonic S5II haben es die Tester geschafft sie zu Banding und Posterization hin zu quälen.

Und Dein Vergleich mit der C70 ist eben Äpfel mit Birnen, weil es keine Hybridkamera ist mit der man auch fotografiert. Die muss 'nur' gut filmen können.

Bei der Z9 war von vorneherein klar, dass sie das RAW Firmware-Update bekommen würde. Das war keine spontane Idee, die den Entwicklern nachträglich gekommen ist. Nur haben sie die Kamera aus Marketinggründen so früh wie möglich auf den Markt gebracht. Die Z8 hatte es von beginn an und sie erschien auch kurz nachdem der Rechtsstreit mit RED geklärt war. Wie man da von Instabil reden kann ist mir ein Rätsel. Auch wird kein sich seriöser Verleiher verweigern ein Firmware-Update durchzuführen. Das Verleiher ein Problem mit Firmware-Updates haben sind Geschichten aus der Märchenwelt.

Der Stacked Senor wird vermutlich den besseren Nikon Kameras (Z8/Z9) vorbehalten bleiben. Das ist einfach eine Kostenfrage. Deshalb wird man bei einer Z6III/Z7III sicher auch nicht die gleichen Specs wie bei der Z9 erwarten dürfen. Aber sie werden mit Sicherheit konkurrenzfähiger sein, als die bisherigen kleineren Modelle. Umsoweniger verstehe ich die Forendiskussionen um die angeblich überlegenen Systeme. Oder warum man von Nikon Kameras abraten sollte. Die neuen Kameras sind alle mehr als Leistungsfähig genug und niemand wird durch seine Kamera ausgebremst.

VG

Space


Antwort von iasi:

cantsin hat geschrieben:
Ihr bestes Kapital ist IMHO, dass sie neben Canon als einziger Hersteller interne Raw-Aufzeichnung haben und die Kompatibilität zum klassischen Nikon F-Bajonett.
Die Z9 ist die ausgewogenste Foto-Kamera mit Cine-Raw.

Keine Hitzeprobleme.
Keine Stromversorgungseinschränkungen.
...
Den vollen Funktionsumfang einer Fotokamera auch im Cine-Modus - speziell Sensor-Stabi.

Abgesehen vom fehlenden internen ND ist sie die kompletteste Foto-Cine-Cam auf dem Markt.
Der direkteste Rivale Canon R5C verlangt nach externer Stromquelle, um die volle Leistungsfähigkeit zu erhalten und verfügt nicht über Sensor-IS.

Die C70 wiederum ist eine 4k-S35-Kamera ohne Sensor IS.

Ein User schreibt: I am using this camera for a while now, however it has some severe issues.

1. There is a heavy antialising and moire problem that make most of my recordings unusable!!! The effect is increased when Digital IS switched on. DIS makes every straight line jitter, no matter which lens or zoom range I am using.
2. The autofocus is really bad, probably worst than in my R7 camera, despite the Face Priority mode which would have been nice, but not working properly.
3. The battery is pretty mediocre, but costs a furtune!
4 The LCD panel is full of garbage, the hinge already came off from the body of the camera. Poor engineering.
5. It is prone to be get scratched due to the plastic of the body, especially the upper part.
https://www.canon.de/video-cameras/eos-c70/#reviews

Mag sein, dass es eine extreme Meinung ist, aber er spricht das 4k-Bayer- und das Digital-IS-Problem an.

Space


Antwort von cantsin:

pillepalle hat geschrieben:
@ cantsin
Du bist meiner entscheidenden Frage ausgewichen, weshalb ich zur Annahme neige, dass Du weder die Z8/Z9 besitzt, noch Praxiserfahrungen mit N-Raw hast. (Dass iasi hier auf seiner Don Quichotte-Bibliotheks-Basis schreibt, brauchen wir nicht zu diskutieren.)

Schreib doch bitte, dass ich falsch liege.

Space


Antwort von pillepalle:

@ cantsin

Ich besitze keine Z8/Z9 habe aber schon mit N-Raw gearbeitet. Und wie unsere Diskussion zeigt, offensichtlich auch mit mehr Know-How bezüglich der Formate, als Du es hier vorgetragen hast ;) Deine Kritik bezog sich ursprünglich allerdings auch auf N-Log, das faktisch für alle Nikon Kameras identisch ist. Jeder der mit Nikon RAW-Material arbeitet, kennt das Log-Verhalten also ganz gut.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
@ cantsin

Ich besitze keine Z8/Z9 habe aber schon mit N-Raw gearbeitet.
Vernutung bestätigt.

Und davor: Ja, keine Ahnung warum Cantsin einer der besten DLSM am Markt schlecht zu reden versucht? Tolle Empirie. Alles klar.

Space


Antwort von pillepalle:

Na ja, die Eigenschaften einer Kamera stehen schon fest ;) Das Du Dich versuchst aus Deinen haltlosen Behauptungen herauszuwinden kann ich zwar nachvollziehen, macht es aber nicht wirklich besser.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
@ cantsin

Es gibt bereits eine neue Version von N-Log. Von daher sind die Tests von cineD ohnehin bereits veraltet.
Mal zwischendurch recherchiert: Es gibt keine neue Version von N-Log, es gibt nur eine neue N-Log-LUT von Nikon.

Und zu der schreibt Nino von CineD auf der von mir verlinkten Seite:

"We had early access to this LUT and used it during our test. In a nutshell, that specific Z 9 LUT behaves exactly the same as the Nikon Z 7II LUT, so no advantage at all in using it."

Fass Dir mal an die Nase, bevor Du anderen "haltlose Behauptungen" vorwirfst.

Space


Antwort von pillepalle:

@ cantsin

Ja, das hab ich verwechselt. Es gibt eine neue LUT, kein anderes Log Format. Trotzdem ändert das nichts daran, daß man auch ohne Z8/Z9 Erfahrung mit dem N-Log Format sammelt.

Instabile Grüße 😉

Space


Antwort von iasi:

cantsin hat geschrieben:
pillepalle hat geschrieben:
@ cantsin
Du bist meiner entscheidenden Frage ausgewichen, weshalb ich zur Annahme neige, dass Du weder die Z8/Z9 besitzt, noch Praxiserfahrungen mit N-Raw hast. (Dass iasi hier auf seiner Don Quichotte-Bibliotheks-Basis schreibt, brauchen wir nicht zu diskutieren.)

Schreib doch bitte, dass ich falsch liege.
Der Don Quichotte bist ja eher du und die Windmühlen tragen die Aufschrift "Nikon". :)

Du erwartest Erfahrungen mit der Z9 von anderen, hast doch aber selbst auch keine aufzuweisen. ;)

Die Z9 bietet:
Vollformatsensor
12 bit N-Raw
12 bit ProRes-Raw
8,2k/60p
Sensor IS
nutzbaren AF
ordentliche Akkulaufzeit
keine Hitzeprobleme trotz passiver Kühlung

Aber dir fällt nur ein, dass die Raw-Formate nicht gut unterstützt würden.

Rolling Shutter können andere besser.
Andere bieten auch mehr DR und interne ND.

Aber ansonsten ist die Z9 ganz oben mit dabei.
Panasonic, Sony & Co. haben jedenfalls keine vergleichbaren Fotokameras - abgesehen von Canon.
Was bringt zudem ein toller DR, der dann in ein 10bit-Format gequetscht wird.

Space


Antwort von rush:

iasi hat geschrieben:
.
Was bringt zudem ein toller DR, der dann in ein 10bit-Format gequetscht wird.
Definitiv mehr als ein geringer DR verpackt in einem 12 bit Format.

Das zeigt leider einmal mehr Deine praxisfernen Betrachtungen.

Space


Antwort von iasi:

rush hat geschrieben:
iasi hat geschrieben:
.
Was bringt zudem ein toller DR, der dann in ein 10bit-Format gequetscht wird.
Definitiv mehr als ein geringer DR verpackt in einem 12 bit Format.

Das zeigt leider einmal mehr Deine praxisfernen Betrachtungen.
Ne - das zeigt nur deine fehlende Erfahrung.

Da redet einer von "geringem DR" und weiß doch eigentlich gar nicht, was er damit meint und was dies in der Praxis bedeutet.

Wer mit 9 Blendenstufen DR nicht zurecht kommt, der wird selbst mit 16 stops DR vermurkste Bilder produzieren. ;)

Vor allem kann er sich nicht mal eine Lichtsituation vorstellen, die 16 stops DR erfordern würde - geschweige denn, dass er sie und die notwendigen Gradingschritte beschreiben könnte.

Space


Antwort von rush:

Hauptsache unser Praktiker iasi weiß wie der Hase da draußen läuft ;-)

Ich nehme definitiv lieber eine (theoretische) Kamera die 16stops DR @ 10bit erfasst - als eine mit einen begrenzten DR von 9 Stops - selbst wenn sie dann 12/14/16bit aufzeichnen kann.

Unnütze Einsen und Nullen bringen am Ende faktisch und praktisch keinen Mehrwert - das zeigten schon vor Jahren die verwzeifelten Versuche aus 8bit HDMI Streams mit 10bit Recordern gegenzusteuern. Bis auf einen Anstieg der Datenmengen war der praktische und bildqualitative Mehrwert eher im homöopathischen Bereich (wenn überhaupt) zu finden.
Allein praktische Zwecke konnte man vielleicht durchgehen lassen - sodass man dem Auftraggeber direkt ein "interpoliertes" und entsprechend aufgeblasenes Pseudo 10bit File überreichen konnte

Auch 32bit Audio Rekorder sind nur so gut wie das was davor passiert... Zerrt das Mikro - bereits vor der AD Wandlung oder es hat ein Eugenrauschen auf Niveau eines Staubsaugers - dann helfen auch keine 32bit Float um daraus das Maximum zu holen.

Space


Antwort von roki100:

rush hat geschrieben:
iasi hat geschrieben:
.
Was bringt zudem ein toller DR, der dann in ein 10bit-Format gequetscht wird.
Definitiv mehr als ein geringer DR verpackt in einem 12 bit Format.
Wie Beispielweise das bei Komodo der Fall ist. In 12Bit und überbelichtet, werden die Farben fast in Black&White verwandelt.

Space


Antwort von iasi:

rush hat geschrieben:
Hauptsache unser Praktiker iasi weiß wie der Hase da draußen läuft ;-)

Ich nehme definitiv lieber eine (theoretische) Kamera die 16stops DR @ 10bit erfasst - als eine mit einen begrenzten DR von 9 Stops - selbst wenn sie dann 12/14/16bit aufzeichnen kann.
Das hab ich mir schon gedacht.
Von Praxis reden, dann aber solche Aussagen.

16 Stops DR - ist dir eigentlich klar, welchem Helligkeitsunterschied das enstpricht?

Space


Antwort von rush:

Ja - dessen bin ich mir bewusst. Und da du doch angeblich so ein großer Post-Mann bist getreu dem Motto "we fix it in the post" - müsstest Du eigentlich auch wissen damit umzugehen, selbst aus "nur" 10bit - was für dich natürlich seit Jahren völlig unter Deiner Würde ist... Hauptsache viel Bit - die Dynamik ist Dir wiederum Wurscht.

16 Blenden DR entspricht im übrigen ungefähr dem, was die Alexa 35 in der Lage ist aufzuzeichnen.
Aber das ist natürlich völlig absurd und benötigt niemand.

iasi hat bekanntermaßen immer die Licht LKWs im Handschuhfach um entsprechende Kontrastunterchiede ausgleichen zu können.

Space


Antwort von roki100:

iasi hat geschrieben:
16 Stops DR - ist dir eigentlich klar, welchem Helligkeitsunterschied das enstpricht?
Das verstehe ich nicht ganz. Es kann heller sein, man kann es nachträglich korrigieren, ohne dass die Details in der Helligkeit verloren gehen.

Ist es z.B. bei Komodo 12Bit-RedRaw zu hell und versuchts das nachträglich zu korrigieren, hast Du fast ein B&W Bild - Farbendetails sind weg. Liegt wohl an wenig DR.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
16 Stops DR - ist dir eigentlich klar, welchem Helligkeitsunterschied das enstpricht?
Das verstehe ich nicht ganz. Es kann heller sein, man kann es nachträglich korrigieren, ohne dass die Details in der Helligkeit verloren gehen.

Ist es z.B. bei Komodo 12Bit-RedRaw zu hell und versuchts das nachträglich zu korrigieren, hast Du fast ein B&W Bild - Farbendetails sind weg. Liegt wohl an wenig DR.
Es geht um die reale Lichtsituation, die 16 Stops DR überhaupt notwendig macht.
Die Leute, die nach 16 Stops DR schreien, reden andereseits immer davon, dass Lichtsetzen 90% des Bildes ausmacht.
Ja was denn nun?

Es geht auch nicht nur um Details in den Lichtern, sondern auch in den Schatten.
Bei 16 Stops DR wären die Lichter mit Details 65-Tausend mal so hell, wie die Lichter im Bild, die noch Zeichnung haben sollen.

Space


Antwort von roki100:

Du intepretierst Nachteile in mehr DR, wo gar keine sind, ganz im gegenteil, da hast Du nur Vorteile. Du schreibst das nur, weil ein paar deiner mehr-Ks und RED und Canon (R5(c)) - Lieblingskameras wenig DR haben... ;)

Lade dir mal Alexa samples herunter und siehe dir das mal genauer an: https://www.arri.com/en/learn-help/lear ... ence-image

Ganz anders bei Kameras mit wenig DR, wie z.B. die Komodo, ist es zu hell, sind auch die farbendetails weg.
Es geht auch nicht nur um Details in den Lichtern, sondern auch in den Schatten. Ja natürlich, auch in den Schatten sind details genug vorhanden.


https://www.youtube.com/watch?v=qb21gRkvfL4

Space


Antwort von iasi:

roki100 hat geschrieben:
Du intepretierst Nachteile in mehr DR, wo gar keine sind, ganz im gegenteil, da hast Du nur Vorteile.

Lade dir mal Alexa samples herunter und siehe dir das mal genauer an: https://www.arri.com/en/learn-help/lear ... ence-image

Ganz anderes bei Kameras mit wenig DR, wie z.B. die Komodo, ist es zu hell, sind die farbendetails weg.
Es geht auch nicht nur um Details in den Lichtern, sondern auch in den Schatten. Ja natürlich, auch in den Schatten sind details genug vorhanden.
Die Alexa bietet unkomprimiertes Raw - nun frag dich mal: Warum?

Es ist zudem auch nicht der große DR der Alexa, den man bei den High-Budget-Produktionen so schätzt, sondern die konstante Farbwiedergabe.

Dieses Geschrei nach immer mehr DR, die dann durch Blendenreihen "getestet" werden, hat doch mit den realen Anforderungen gar nichts mehr zu tun.

Ich stell doch nicht eine Person in den Schatten und hab im Hintergrund eine weiße Hauswand, auf die die Sonne voll draufknallt. Da nutzt mir auch ein großer DR nichts gegen unterschiedlichen Farbtemperaturen. Da ist sowieso Ausleuchten der Person angesagt - und dann spielt der DR schon mal gar keine große Rolle mehr.

Ich filme auch nicht gegen die Sonne und erwarte dann ein perfektes Gesicht - da macht schon kaum ein Objektiv mit.

Die Komodo hat 11 nutzbare Stops - das reicht allemal. Dass sie in den Lichtern mit Highlight Rec. arbeitet, spielt zu 99% keine Rolle, denn in den Lichtern unterscheidet man sowieso keine Farben mehr. Dass ich nun ein Gesicht so belichte, dass es auf dem Histogram ganz rechts klebt, kommt bei mir nicht vor - zumindest werde ich dann nicht versuchen, es wieder in die Mitten zu ziehen.

Was ich aber eher habe, sind Aufnahmen, bei denen das Gesicht 2 Blenden unter- oder überbelichtet ist - das bringt ETTR eben mit sich. Mit 12bit ist das kein Problem.

Space


Antwort von cantsin:

iasi hat geschrieben:

Die Alexa bietet unkomprimiertes Raw - nun frag dich mal: Warum?
Wegen REDs Patent.

Space


Antwort von roki100:

iasi hat geschrieben:
Es ist zudem auch nicht der große DR der Alexa, den man bei den High-Budget-Produktionen so schätzt, sondern die konstante Farbwiedergabe.
Das ist nur deine persönliche Meinung und entspricht nicht dem was Arri selbst dazu sagt (und das was sie sagen basiert auf die Wünsche der Kunden). Es gibt einen Bericht von Arri, in dem gesagt wird, warum sie bei Digitalkameras mehr DR anstreben. Da hieß es: weil sie den DR der analogen Arri-Kameras erreichen wollen. ColorScience bzw. die Farben, das haben die damals erreicht, den DR aber noch nicht (so habe ich das verstanden).

Color Science ist etwas, wo Arri sehr hart daran gearbeitet hat (hieß es in dem Bericht). Nicht umsonst gab es damals Analog/Digital Comparison Videos.

Also, das was sie anstreben (mehr DR) darin sind sie sehr gut. Nicht umsonst ist Arri quasi Nr.1 wenn es um mehr DR geht.

Space


Antwort von cantsin:

iasi hat geschrieben:
Was ich aber eher habe, sind Aufnahmen, bei denen das Gesicht 2 Blenden unter- oder überbelichtet ist - das bringt ETTR eben mit sich. Mit 12bit ist das kein Problem.
Das ist doch völliger Kokolores, denn das hängt nicht von der digitalen Quantisierung, sondern dem (analogen) Rauschverhalten des Sensors ab.

Siehe das weiter oben genannte Beispiel von der 32bit-float-Audioaufnahme, passt hier auch wie die Faust aufs Auge.

Space


Antwort von rush:

Er kann oder will es offenbar nicht verstehen - Hopfen und Malz scheinen verloren.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Es ist zudem auch nicht der große DR der Alexa, den man bei den High-Budget-Produktionen so schätzt, sondern die konstante Farbwiedergabe.
Das ist nur deine persönliche Meinung und entspricht nicht dem was Arri selbst dazu sagt (und das was sie sagen basiert auf die Wünsche der Kunden). Es gibt einen Bericht von Arri, in dem gesagt wird, warum sie bei Digitalkameras mehr DR anstreben. Da hieß es: weil sie den DR der analogen Arri-Kameras erreichen wollen. ColorScience bzw. die Farben, das haben die damals erreicht, den DR aber noch nicht.
Color Science ist etwas, wo Arri sehr hart daran gearbeitet hat (hieß es in dem berricht). Nicht umsonst gab es damals Analog/Digital Comparison Videos.

Also, das was sie anstreben (mehr DR) darin sind sie sehr gut. Nicht umsonst ist Arri quasi Nr.1 wenn es um mehr DR geht.
Auf reduser hat ein DP die Alexa sehr ausführlich getestet - und was denkst du wohl, auf was er besonders Wert gelegt hat.
Color Sience ist das, woran Arri auch besonders intensiv bei der Alexa 35 gearbeitet hat - und sich auch dafür reichlich Zeit gelassen hat.

Er hier macht auch seine Blendenreihen und ich denke mir ständig: Ja nun zeig doch mal, was aus solchen Aufnahmen denn noch rausgeholt werden kann. Er weiß schon, weshalb er es gar nicht erst versucht.

https://youtu.be/eyh5KTrAj2A?t=177

Bei deiner Beispielaufnahme ist es wohl (hoffentlich) beabsichtigt, dass das Gesicht so kontrastreich hart und die Augenränder so dunkel wirken - vor allem im Kontrast mit dem weichen Hintergrund.



Space


Antwort von roki100:

DR es ist doch nicht schwer zu verstehen; Du hast genug details in den Schatten und genug details in den Highlights.

Space


Antwort von iasi:

cantsin hat geschrieben:
iasi hat geschrieben:
Was ich aber eher habe, sind Aufnahmen, bei denen das Gesicht 2 Blenden unter- oder überbelichtet ist - das bringt ETTR eben mit sich. Mit 12bit ist das kein Problem.
Das ist doch völliger Kokolores, denn das hängt nicht von der digitalen Quantisierung, sondern dem (analogen) Rauschverhalten des Sensors ab.

Siehe das weiter oben genannte Beispiel von der 32bit-float-Audioaufnahme, passt hier auch wie die Faust aufs Auge.
Du verstehst also die Zusammenhänge nicht.
Dass das analoge Signal in Eins und Nullen übersetzt wird, ist die aber noch klar.
Nun stell dir mal ein Histogram vor, das 16 Blendenstufen DR zeigt:
Rechts eine Spitze mit den Lichtern, links die Schatten - und die Mitten zwängen sich in einem schmalen Berg zusammen, da ja schließlich 16 Blendenstufen quantifiziert werden müssen. Wie erscheint dieses Bild dann wohl ohne Grading?
Was tust du nun, um einerseits die Zeichnung in Schatten und Lichtern zu erhalten bzw. Clippen zu verhindern, während du natürlich die Mitten schön ausentwickelst. Und hier wirst du dann ganz schnell erleben, was die Quantifizierung mit dem Dynamik Umfang zu tun hat.

Space


Antwort von roki100:

iasi hat geschrieben:
Wie erscheint dieses Bild dann wohl ohne Grading?
wieso ohne Grading? Das ist gerade für Grading gemacht... Du hast genug details in den Schatten und in den Highlights und somit geniug spielraum fürs Grading....
Was tust du nun, um einerseits die Zeichnung in Schatten und Lichtern zu erhalten bzw. Clippen zu verhindern, während du natürlich die Mitten schön ausentwickelst. Und hier wirst du dann ganz schnell erleben, was die Quantifizierung mit dem Dynamik Umfang zu tun hat. Die Regler, wie Shadow, Gain, Highlights usw. sind nicht umsonst mit Werten von -100 bis +100 vorhanden?

Space


Antwort von iasi:

roki100 hat geschrieben:
DR es ist doch nicht schwer zu verstehen#; Du hast genug detals in den Schatten und genug details in den Highlights.
OK.
Dann übersetz das mal konkret in eine Lichtsituation mit
A. 9 Blendenstufen Kontrastumfang
B. 11 Blendenstufen Kontrast
C. 13 Blendenstufen Kontrast
D. 16 Blendenstufen Kontrast.

Beschreib oder zeig doch mal Beispiele für diese Situationen.

Und dann sag auch, "wo" sich wohl z.B. der Hautton einer Person im Bild befinden wird.

Space


Antwort von roki100:

iasi hat geschrieben:
Und dann sag auch, "wo" sich wohl z.B. der Hautton einer Person im Bild befinden wird.
Du hast doch oben ein Video verlinkt (Alexa 35, Alexa mini LF). Hast Du dir das Video auch angeschaut? ;)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Wie erscheint dieses Bild dann wohl ohne Grading?
wieso ohne Grading? Das ist gerade für Grading gemacht... Du hast genug details in den Schatten und in den Highlights und somit geniug spielraum fürs Grading....
Was tust du nun, um einerseits die Zeichnung in Schatten und Lichtern zu erhalten bzw. Clippen zu verhindern, während du natürlich die Mitten schön ausentwickelst. Und hier wirst du dann ganz schnell erleben, was die Quantifizierung mit dem Dynamik Umfang zu tun hat. Die Colorgrading-Regler, wie Gain, Shadow, Highlights/Light usw. sind doch nicht umsonst da mit Werte von -100 bis +100.
Wichtig sind die Mitten.
Die sind bei 16 Stops DR nun mal stärker zusammengestaucht und somit geringer quantifiert, als bei 11 Stops DR.
Vor allem fallen die Mitten im Histogram meist nicht dahin, wo sie sein sollten, denn man zwängt ja Lichter und Schatten hinein. Im Idealfall sind sie nach rechts verschoben.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Und dann sag auch, "wo" sich wohl z.B. der Hautton einer Person im Bild befinden wird.
Du hast doch oben ein Video verlinkt (Alexa 35, Alexa mini LF). Hast Du dir das Video auch angeschaut? ;)
Und was denkst du, was man aus der Aufnahme noch herausholen kann?
Kein Clippen in den Lichtern und Zeichnung in den Schatten sind nach deiner Darstellung ja ausreichend.

Space


Antwort von roki100:

iasi hat geschrieben:
Wichtig sind die Mitten.
Die sind bei 16 Stops DR nun mal stärker zusammengestaucht und somit geringer quantifiert, als bei 11 Stops DR.
Meinst Du damit das?
ARRIRAW is the same as before?
Essentially, yes. We do a non-linear recording of the RAW images
and 512 digital numbers are allocated per exposure stop. But,
because in the new ARRIRAW we have to encode two more stops,
we need 1,024 more numbers in our range. That’s why we needed
to add one bit to the file format, so ARRIRAW is encoded in the
ALEXA 35 in 13-bit, whereas ARRIRAW is encoded in 12-bit in
in the ALEXA LF.

https://www.fdtimes.com/pdfs/free/115FD ... 04-150.pdf
iasi hat geschrieben:
Kein Clippen in den Lichtern und Zeichnung in den Schatten sind nach deiner Darstellung ja ausreichend.
Genug details in den Lichter und Schatten. Was Du nachträglich daraus machst, liegt an dir, es stehen dir genug details in den Lichter und Schatten.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Kein Clippen in den Lichtern und Zeichnung in den Schatten sind nach deiner Darstellung ja ausreichend.
Genug details in den Lichter und Schatten. Was Du nachträglich daraus machst, liegt an dir, es stehen dir genug details in den Lichter und Schatten.
Da wirft man mir hier immer vor, ich wolle kein Licht setzen und alles in der Post machen. :)

Auch hier bekommst du doch nur halbswegs ansehnliches Gesicht und Augen in der Post mit Hängen und Würgen hin.
Eigentlich taugt diese Aufnahme nichts.

https://youtu.be/eyh5KTrAj2A?t=199

Das ist wie bei der von dir verlinkten Alexa-Aufnahme:
Gesicht und Augen sind mir wichtig - darauf kommt es an. Da können die Schatten von mir aus auch zulaufen, solange die bildwichtigen Teile passen.

Die Alexa zeichnet hier besonders aus, dass sie die Farben auch bei Unterbelichtung hält und sich der Hautton anheben lässt. Aber an der Ausleuchtung des Gesichts ändert das leider auch nichts.

Space


Antwort von roki100:

iasi hat geschrieben:
Da wirft man mir hier immer vor, ich wolle kein Licht setzen und alles in der Post machen. :)
Mehr DR bedeutet auch nicht das man auf Lichter verzichten kann^^ Du hast in Post halt mehr spielraum auch in Lichter und Schatten. Auch hier bekommst du doch nur halbswegs ansehnliches Gesicht und Augen in der Post mit Hängen und Würgen hin.
Eigentlich taugt diese Aufnahme nichts.
Die Aufnahme zeigt wieviel spielraum Du da hast. Machmal das mit deine GH5 oder P6KPro und vergleich das mal...und dann stellst du dir die Alexa 35 vor. :)

Er erwähnt auch am Anfang warum da jemand ISO1600 benutzt hat, da wollte jemand also trotzdem noch mehr details in den Lichter... ;)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Da wirft man mir hier immer vor, ich wolle kein Licht setzen und alles in der Post machen. :)
Mehr DR bedeutet auch nicht das man auf Lichter verzichten kann^^ Du hast in Post halt mehr spielraum auch in Lichter und Schatten. Auch hier bekommst du doch nur halbswegs ansehnliches Gesicht und Augen in der Post mit Hängen und Würgen hin.
Eigentlich taugt diese Aufnahme nichts.
Die Aufnahme zeigt wieviel spielraum Du da hast. Machmal das mit deine GH5 oder P6KPro und vergleich das mal...und dann stellst du dir die Alexa 35 vor. ;)
Mehr Spielraum in der Post bekomme ich durch einen höheren DR nicht.

Wenn die Quantifizierung hoch genug ist, macht es keinen Unterschied, ob im Histogram nun 11 oder 16 Blendenstufen "Platz gefunden haben".

Und wenn ich Licht setze, habe ich die Kontrolle über den Lichtkontrast und kann z.B. die Schatten so weit aufhellen, dass sie auch bei 11 Stops DR noch Zeichnung haben.
Vor allem aber werde ich Gesicht und Augen ausleuchten. :)

Es ist viel seltener, als viele in ihrem Wunsch nach immer mehr DR denken, dass man mit Lichtsituationen konfrontiert wird, die mehr als 11-12 stops DR erfordern.
Es gibt sie, aber sie sind selten und noch seltener kann man sie nicht beeinflussen.

Space


Antwort von roki100:

iasi hat geschrieben:
Mehr Spielraum in der Post bekomme ich durch einen höheren DR nicht.
Du hast doch mehr spielraum in den Lichter und Schatten...z.B. Roger Deakins hat ISO1600 benutzt, weil er wohl noch mehr details in den Lichter haben wollte. Ihm haben also die details in den Lichter, bei native ISO, nicht ausgereicht.
(zur Eriennerung: höhere ISO Wert bedeutet bei Dual Gain Sensor, mehr details in den Lichter)

So ist das, da wo TOP Kameraleute nutzen darin sehen, machst Du dir gedanken über den Platz zwischen den Schatten und die Lichter und nicht darüber, dass Du auch da mehr details hast, wenn Du das ausseinander dehnst (und das auch noch in 13-bit)...^^

Nochmal: Die Aufnahme zeigt wieviel spielraum Du da hast. Machmal das mit deine GH5 oder P6KPro und vergleich das mal...und dann stellst du dir die Alexa 35 vor. :)

Space


Antwort von roki100:

Um bei Thema zu bleiben:
Auch die Nikon Z9 kann mit dem 2in1 Filter etwas mehr details in den Lichter haben ;) Ich bin so begeistert davon, dass ich das auch hier erwähnen muss^^ Frank war bei seiner Erfindung damals auch begeistert. ;) Das ist wiedermal etwas aber sowas von amazing! :)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Mehr Spielraum in der Post bekomme ich durch einen höheren DR nicht.
Du hast doch mehr spielraum in den Lichter und Schatten...z.B. Roger Deakins hat ISO1600 benutzt, weil er wohl noch mehr details in den Lichter haben wollte. Ihm haben also die details in den Lichter, bei native ISO, nicht ausgereicht.
(zur Eriennerung: höhere ISO Wert bedeutet bei Dual Gain Sensor, mehr details in den Lichter)

So ist das, da wo TOP Kameraleute nutzen darin sehen, machst Du dir gedanken über den Platz zwischen den Schatten und die Lichter und nicht darüber, dass Du auch da mehr details hast, wenn Du das ausseinander dehnst (und das auch noch in 13-bit)...^^

Nochmal: Die Aufnahme zeigt wieviel spielraum Du da hast. Machmal das mit deine GH5 oder P6KPro und vergleich das mal...und dann stellst du dir die Alexa 35 vor. :)
Du hast bei der Aufnahme mehr Spielraum, aber nicht in der Post.

ISO 1600 zu benutzen, bedeutet nur, dass du unterbelichtest und dadurch dann mehr Details in den Lichtern erhältst.

Red hatte bei der MX-Serie dazu geraten, nach ISO800 zu belichten, obwohl der Sensor nativ ISO320 hatte - eben um durch eine Unterbelichtung die Lichter zu schützen.

Wenn der Sensor eigentlich t4/180° für ETTR bei ISO320 erfordert, ich aber nach ISO800 - also mit t5,6/180° - belichte, dann wird der Sensor 1 Blende unterbelichtet.
Dadurch verliert man 1 Blende DR, aber in der Praxis war das meist kein Problem.

Hab ich die Aufnahme gemacht, dann hab ich bei ETTR (und etwas Unterbelichtung) Zeichnung in den Lichtern und nichts clippt.

Mit einer Alexa 35 kann ich einen wahrscheinlich 8mal so hohen Lichtkontrast wie bei einer P6kPro aufnehmen, ohne dass Lichter und Schatten clippen bzw. zulaufen. Aber brauch ich das? Bzw. wann genau brauch ich das?
Deakins hatte bei bewölktem Himmel gedreht - da braucht es keine 14 oder gar 16 Blendenstufen DR.
Er wollte vielleicht vermeiden, dass Explossionen zu hell wurden und ausbrennen.

Space


Antwort von roki100:

iasi hat geschrieben:
Du hast bei der Aufnahme mehr Spielraum, aber nicht in der Post.
Die Aufnahmen werden doch für Post gemacht....
Red hatte bei der MX-Serie dazu geraten, nach ISO800 zu belichten, obwohl der Sensor nativ ISO320 hatte - eben um durch eine Unterbelichtung die Lichter zu schützen. Nicht DualGain Sensoren, können das nur bis zu einem gewissen Punkt in dem unteren ISO bereich...
Deakins hatte bei bewölktem Himmel gedreht - da braucht es keine 14 oder gar 16 Blendenstufen DR.
Er wollte vielleicht vermeiden, dass Explossionen zu hell wurden und ausbrennen.
Kann sein. Mehr stops nach oben, ist also immer besser bzw. es lässt sich einiges vermeiden z.B. dass Explossionen zu hell werden und ausbrennen^^ Hab ich die Aufnahme gemacht, dann hab ich bei ETTR (und etwas Unterbelichtung) Zeichnung in den Lichtern und nichts clippt. Zeigen, so dass auch Schattenbereich zu sehen ist (ohne NR). Und die Schatten am besten nicht mit normalen Shadow Regler hochziehen, sondern mit dem Regler unter HDR-ColorWheels, so dass die Farben im Schattenbreich auch angehoben werden und man die verlorenen details besser erkennen kann...;) Am besten aber die original Videoaufnahmen verlinken.

Space


Antwort von pillepalle:

Ich verstehe die ganze Diskussion hier nicht. Beides ist nützlich, sowohl eine hohe Farbtiefe, die die Anzahl der möglichen Farbabstufungen (in Bit) angibt, als auch ein großer Dynamikumfang, der den maximal möglichen Kontrast angibt (in der Regel in Blenden).

Die Sensoren die in den meisten DSLMs verbaut sind, haben einen Dynamikumfang von etwas über 13 Blenden, von denen dann im komprimierten Videobetrieb meist ca. 11 Blenden nutzbar sind, bevor alles im Rauschen versinkt. Die Unterschiede in der Dynamik die man praktisch erwarten kann, sind dann vielleicht eine Blende mehr, oder eine Blende weniger, je nach Kamera. Das sind aber keine riesen Unterschiede. Und auch in Sachen Farbtiefe geht es meist um 10 bzw. 12 Bit. Das ist vor allem für die Post wichtig, aber auch hier sind das keine Welten die dazwischen liegen. Je mehr ich das Material nachträglich quäle, desto hilfreicher ist eine höhere Farbtiefe. Aber in der Regel braucht es auch kein extremes Grading, um ein schönes Bild zu bekommen. Und ja, wenn ich einen Kinofilm drehe machen 12 Bit Formate natürlich mehr Sinn, aber die meisten DSLM Nutzer drehen nun mal keine Kinofilme. Von daher, nice to have, aber beides ist nicht wirklich kampfentscheidend. Die aktuellen Modelle sind in der Praxis alle gut genug.

VG

Space


Antwort von roki100:

RAW bedeutet auch besserer DR.
Wobei; ich weiß nicht wie das bei N-LOG ist, aber der Unterschied zwischen 12bit-RAW und 10bit-VLOG (ProRes oder intern h264/5) ist tatsächlich minimal bzw. ich bilde mir ein das nur in HDR zu erkennen, was aber in wirklichkeit auch an weniger Bits liegen könnte.
Da wurde mir eigentlich klar, wie gut VLOG eigentlich ist.

Mehr DR in RAW scheint also von Kamera zu Kamera anders zu sein.

Wie ist das bei Nikon Z9/Z8?

Space


Antwort von pillepalle:

@ roki

Ich drehe auch meist in RAW und nutze kaum noch LUTs, aber ich mache daraus keine Glaubensfrage. Jeder hat einen anderen Workflow und andere Anforderungen. Wichtig ist das man sein Equipment kennt und weiß wie man damit zu guten Ergebnissen kommt.

Mir ging es nur darum, das die Unterschiede in der Praxis nicht so dramatisch sind, wie sie hier oft dargestellt werden. Zumindest innerhalb der aktuellen DSLMs. Aber hier wird ja gleich immer die Alexa 35 mit hineingeworfen, die alles doppelt ausliest und nachträglich wieder zu einem Bild zusammenwurschtelt. Die haben auch keinen Wundersensor, nur eine viel aufwendigere Technik und ein entsprechendes Know-How. Auch eine C70 erreicht die Dynamik nicht durch einfache Auslesung. Kann mich nicht mehr genau erinnern, aber ich glaube das waren zwei verschiedene Verstärkerstufen.

VG

Space


Antwort von roki100:

Ja, die heutigen DSLMs können das gut, aber nicht alle gleich gut, und ich finde, es macht schon einen Unterschied, wenn es um details in Schatten und Lichtern geht. Das Thema nur, weil die Behauptung, dass DR nicht so wichtig ist (aber Ks und Bits schon), so m.M. nicht stimmt. Alexa wurde erwähnt, weil Alexa ein gutes Beispiel ist. Und auch die C70, die hier bei SlashCam oft mit anderen DSLMs oder allen Latitude-Tests genau das zeigt, wo es mit den details im Bild endet.

Was nützen mehr Ks und Bits für nachträgliche arbeit, wenn der DR nicht gut ist? Viel lieber ein gutes 4K oder 4.6K aber mehr DR, wo man Schatten anheben oder die Lichter absenken kann und die details sauber wiederhergestellt werden können. Bei der RED Komodo z.B. kannst du die Lichter runterziehen, die Farben sind aber weg (nicht nur da wo es clippt).

Space


Antwort von pillepalle:

Wenn Du Deine Schatten in der Post retten musst, dann hast du schon bei der Aufnahme etwas falsch gemacht. Die ganze Idee sein Glück in einer besseren Kamera zu suchen ist vom Prinzip her schon eine schlechte.

Normalerweise ist das ja kein Wunschkonzert, sondern man nimmt was man bekommt. Wenn mir die Nikon 8K und 12 Bit liefert, nehme ich die gerne. Da brauche ich mir doch keine Gedanken machen, ob noch mehr Dynamik noch besser wäre? Mehr Ks und Farbtiefe geben Dir mehr Differenzierung und Details. Mehr Dynamik mehr Flexibilität in extremen Lichtsituationen. Was davon besser ist hängt davon ab was man macht. Hast Du ständig Kontrastprobleme dann freust Du Dich über mehr Dynamik. Willst Du feinste Details erkennen, oder croppen, freust Du dich über mehr Ks. Willst Du das Material in der Post kneten über mehr Farbtiefe.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
Wenn Du Deine Schatten in der Post retten musst, dann hast du schon bei der Aufnahme etwas falsch gemacht.
Ja, mit dem Argument, reicht es auch weniger DR. Aber das ist die Sache, man kann bei der Aufnahme etwas falsch machen, und die Aufnahme kann nicht wiederholt werden (wie in meinem Fall oder bei teuren Produktionen wird es teurer, weil man die Aufnahme wiederholen muss). Mit mehr DR habe ich mehr Details in den Schatten und Lichtern und kann einiges somit retten/wiederherstellen/korrigieren.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Du hast bei der Aufnahme mehr Spielraum, aber nicht in der Post.
Die Aufnahmen werden doch für Post gemacht....

Während der Aufnahme wird der Sensor belichtet und die analogen Signale in digitale gewandelt - digitalisiert.
In der Kamera überlagert das Rauschen das Signal und die Signale erreichen ihr Maximum.
In der Post kannst du nur mit dem arbeiten, was die Kamera liefert.

Wenn du den Sensor überbelichtest, rettet dich auch die Post nicht mehr.
Die Alexa bietet hier zwar Spielraum, aber auch bei ihr ist dann irgendwann Schluss. Der Spielraum in den Lichtern wird für ein weiches Auslaufen der Lichter genutzt - das verlierst du dann zuerst.

Space


Antwort von roki100:

iasi hat geschrieben:
Wenn du den Sensor überbelichtest, rettet dich auch die Post nicht mehr.
Eben nicht. Denn es kommt darauf an, ob der Sensor genug details in den Lichter aufnehmen kann... Wie oft ist mir passiert, dass die Sonne durch die Wolke bedeckt war und plötzlich scheint die Sonne wieder, das Gesicht ist dann ausgebrannt... zu retten war das nur mit dem Sensor der mehr details in den Lichter aufnehmen kann und dank HR, aber nicht z.B. mit VLOG-L 10Bit....
Die Alexa bietet hier zwar Spielraum, aber auch bei ihr ist dann irgendwann Schluss. Ja und da wo Schluss ist, ist z.B. mit Z9 (und Komodo sowieso) schon viel früher Schluss^^ Da bringen dir die 2bits mehr auch nichts (darum ging es ja).

Space


Antwort von iasi:

roki100 hat geschrieben:
pillepalle hat geschrieben:
Wenn Du Deine Schatten in der Post retten musst, dann hast du schon bei der Aufnahme etwas falsch gemacht.
Ja, mit dem Argument, reicht es auch weniger DR. Aber das ist die Sache, man kann bei der Aufnahme etwas falsch machen, und die Aufnahme kann nicht wiederholt werden (wie in meinem Fall oder bei teuren Produktionen wird es teurer, weil man die Aufnahme wiederholen muss). Mit mehr DR habe ich mehr Details in den Schatten und Lichtern und kann einiges somit retten/wiederherstellen/korrigieren.
Das erinnert mich an den DP, der vom Film kam und bei seinen ersten Alexa-Aufnahmen wie vom Negativ gewohnt eine Blende überbelichtete. DualGain bietet mehr Spielraum und Arri nutzt diesen, um die Lichter weich auslaufen zu lassen. Die Alexa verzieh dem DP also seinen Fehler eher als eine Red dies getan hätte.
Aber braucht es mehr DR wirklich, um solche Belichtungsfehler auszugleichen?

Highlight Recovery ist ja eigentlich auch nur ein Notnagel für den Fall, dass ein Kanal clippt. Red hat ja z.B. die Ampel eingeführt, um dies gar nicht erst nötig zu machen. Bei der Komodo, mit ihrem internen H.R. sollte man auch eher die Lichter schützen und etwas knapper belichten.

Space


Antwort von roki100:

iasi hat geschrieben:
Aber braucht es mehr DR wirklich, um solche Belichtungsfehler auszugleichen?
Ja.
Highlight Recovery ist ja eigentlich auch nur ein Notnagel für den Fall, dass ein Kanal clippt. Ja, eine goldartige Erfindung. So gut, dass Red das sofort in RedRaw eingebrannt hat. ;)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Wenn du den Sensor überbelichtest, rettet dich auch die Post nicht mehr.
Eben nicht. Denn es kommt darauf an, ob der Sensor genug details in den Lichter aufnehmen kann...
Die Alexa bietet hier zwar Spielraum, aber auch bei ihr ist dann irgendwann Schluss. Ja und da wo Schluss ist, ist z.B. mit Z9 (und Komodo sowieso) schon viel früher Schluss^^ Da bringen dir die 2bits mehr auch nichts (darum ging es ja).
In den Lichtern bietet der Sensor Details, wenn du ihn nicht überbelichtest.
Korrekt belichtet bietet eine Z9 so viele Details wie eine Alexa - abgesehen von den Raw-Format-Verlusten, die das unkomprimierte bzw. lossless komprimierte ArriRaw nicht hat. Ein 8bit-codec könnte hier schon mal gar nicht mithalten. :)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Aber braucht es mehr DR wirklich, um solche Belichtungsfehler auszugleichen?
Ja.
Highlight Recovery ist ja eigentlich auch nur ein Notnagel für den Fall, dass ein Kanal clippt. Ja, eine goldartige Erfindung. So gut, dass Red das sofort in RedRaw eingebrannt hat. ;)
Es ist ein Kompromiss.
Den muss man aber auch bei einer Komodo nicht eingehen, denn man kann etwas knapper belichten und dadurch H.R. ungeenutzt lassen. Also im Histogram nicht ganz nach rechts gehen.

Space


Antwort von pillepalle:

roki100 hat geschrieben:
Ja und da wo Schluss ist, ist z.B. mit Z9 (und Komodo sowieso) schon viel früher Schluss^^ Da bringen dir die 2bits mehr auch nichts (darum ging es ja).
Ja, aber die 2 Bits mehr hast Du ja auch nicht um mehr Dynamik zu erhalten, sondern um damit in der Post arbeiten zu können. Du gehst immer nur davon aus das jede Aufnahme irgendwie missraten ist :) Im Normalfall, also wenn man nicht nur draufhält, hat man die Kontraste ja im Griff. Da helfen dann die 2 Bit mehr in der Post.

VG

Space


Antwort von roki100:

iasi hat geschrieben:
In den Lichtern bietet der Sensor Details, wenn du ihn nicht überbelichtest.
Siehe das Beispiel mit der Sonne und Wolken und Gesicht.
Du kannst auch unterbelichten, in der Erwartung, dass die Sonne im Laufe der Aufnahme wieder scheint, dann ist alles richtig belichtet und du kannst die unterbelichtete Aufnahme anschließend mit NeatVideo retten. :)

Space


Antwort von rush:

iasi hat geschrieben:

Korrekt belichtet bietet eine Z9 so viele Details wie eine Alexa
Na sicher... Und eine GH2 oder 5D II ebenso. Dream on.
Selbst wenn beide Kameras 10bit oder gar 12bit verarbeiten könnten - wäre der DR auch nach ETTR und viel Geschraube in der Post unweigerlich geringer da die jeweiligen Sensoren dazu nicht in der Lage sind diesen dynamischen Bereich auch nur annähernd zu erfassen... Arri geht da einen anderen Weg sowie Canon es bei einigen Modellen macht.

Ein breiter Dynamikumfang und eine hohe Bittiefe sind sicherlich ideal - aber selten in der Kombination zu bekommen. Nicht immer nötig - schon gar nicht im szenischen - aber für einige Anwendungen schon ein nice to have

Einerseits will iasi technisch immer das non plus ultra - aber ausgerechnet im Bereich DR gibt er sich mit Normalkost zufrieden anstatt auch hier die technischen Entwicklungen zu würdigen. Merkwürdig.

Space


Antwort von roki100:

pillepalle hat geschrieben:
Ja, aber die 2 Bits mehr hast Du ja auch nicht um mehr Dynamik zu erhalten, sondern um damit in der Post arbeiten zu können.
Das ist klar. Aber, es ist genauso klar, wenn es um mehr DR geht. Ich finde es schrecklich, wenn ich die Schatten anhebe und die Details durch noise verdeckt bzw. verloren...oder, das Gesicht nicht mehr zu retten ist, weil die Sonne nicht mehr von den Wolken verdeckt war. Mit wenig DR, kann man die details in den Lichter nicht so wiederherstellen. Mit RED Komodo wäre sogar das Gesicht nicht mehr Farbig, sondern 12bit RedRaw in B&W^^ Wie weit das möglich ist, das hängt natürlich davon ab, wie gut der DR ist^^

Beides ist also gut-zu-haben, Bits und DR, viel wichtiger, als das eine und das zweite, Bits und Ks^^ Was nützt mir hochauflösende viel früher geclippte bild in 12Bit... nix. :)

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
In den Lichtern bietet der Sensor Details, wenn du ihn nicht überbelichtest.
Siehe das Beispiel mit der Sonne und Wolken und Gesicht.
Du kannst auch unterbelichten, in der Erwartung, dass die Sonne im Laufe der Aufnahme wieder scheint, dann ist alles richtig belichtet und du kannst die unterbelichtete Aufnahme anschließend mit NeatVideo retten. :)
Aber ich will doch nichts retten.

Wenn du eine Aufnahme um 1 Blende knapper belichtest und die Lichtsituation hat einen Kontrast von 8 Blendenstufen, dann hast du auch mit einer Z9 eine sehr gute Aufnahme, mit der du arbeiten kannst. Da bringen dann die 16 stops einer Alexa 35 auch nicht mehr.

Wenn eine Person vor der Sonne steht, halte ich lieber ein weißes Leintuch hin, um die Person aufzuhellen, als dass ich auf den DR der Kamera baue. Denn die Sonne im Bild hat auch einen Effekt auf das Objektiv und somit die dunklen Bildteile.
Eigentlich würde ich sowieso keine Person vor der Sonne aufnehmen, wenn ich nicht einen besonderen Effekt erzielen will.

Space


Antwort von roki100:

iasi hat geschrieben:
Wenn eine Person vor der Sonne steht, halte ich lieber ein weißes Leintuch hin
Auch wenn die Person sich schnell hin und her bewegt, also rennt, rennst Du mit einem weißen Tuch hinterher, um es vor clipping "nix-fix in the post" zu bewahren...Hauptsache mehr Ks passen. ;)

Space


Antwort von pillepalle:

@ roki

Ja, natürlich ist es ideal wenn man alles hat. Ich habe zwar noch nie mit einer Alexa gearbeitet, bin mir aber ziemlich sicher das Du die auch nicht so belichten kannst wie Du lustig bist. Da wird das Ergebnis ziemlich anders aussehen, unabhängig davon ob der DR reicht, oder nicht.

Du arbeitest in Deinem Beispiel nach dem Zufallsprinzip... erinnert an Lotto spielen :) Wenn sich das Licht ständig verändert wirst Du mit keiner Kamera besonders gute Ergebnisse bekommen. Und unabhängig davon ob es clippt oder nicht, passen die Bilder dann auch nicht besonders gut zusammen. Entweder du entscheidest Dich für eine Situation (Sonne oder Schatten), oder Du änderst etwas daran (machst Dir z.B. selber nur Schatten). Andernfalls musst Du eben mit mit mittelprächtigen Ergebnissen leben. Das meine ich auch damit wenn ich sage, das man sein Glück nicht in der Kamera suchen soll. Du musst die Situation meistern, nicht Deine Kamera.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
Wenn sich das Licht ständig verändert wirst Du mit keiner Kamera besonders gute Ergebnisse bekommen.
Mit der Zeit lernt man ja seine Werkzeuge kennen, und ich bin mir ganz sicher, dass DR viel ausmacht wenn man z.B. draußen viel filmt, gerade zu Sommerzeiten. Mit mehr DR und HR (also mit mehr Details in den Highlights) konnte ich viel mehr retten, als mit wenig DR und ohne HR. Mit HR hast Du zusätzlich ungefähr oder mindestens +1 blende.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Wenn eine Person vor der Sonne steht, halte ich lieber ein weißes Leintuch hin
Auch wenn die Person sich schnell hin und her bewegt, also rennt, rennst Du mit einem weißen Tuch hinterher, um es vor clipping "nix-fix in the post" zu bewahren...Hauptsache mehr Ks passen. ;)
Richtig belichten - das gehört auch mit dem weißen Tuch das Licht zu steuern - gehört dazu, wenn man ein gutes Ergebnis will.

Auch wenn der DR der Kamera den Lichtkontrast meistert, ist das Licht auf Augen und Gesicht hier nun einmal nicht ideal - selbst wenn man in der Post reichlich nacharbeiten würde:

https://youtu.be/eyh5KTrAj2A?t=219

Space


Antwort von pillepalle:

roki100 hat geschrieben:
Mit der Zeit lernt man ja seine Werkzeuge kennen, und ich bin mir ganz sicher, dass DR viel ausmacht wenn man z.B. draußen viel filmt, gerade zu Sommerzeiten. Mit mehr DR und HR (also mit mehr Details in den Highlights) konnte ich viel mehr retten, als mit wenig DR und ohne HR. Mit HR hast Du zusätzlich ungefähr oder mindestens +1 blende.
Ja, aber Dir geht es immer nur darum Dein Material zu retten. Den Murks hast du vorher schon gemacht. Das liegt nicht an der Kamera, sondern daran wie Du arbeitest. Wenn Du Deine Kamera kennen würdest, müsstest Du auch nichts nachträglich retten. Dann wüsstest Du vorher bereits was geht und was nicht.

Natürlich ist es besser viel Dynamik zu haben, wenn man sein Bild nicht selber gestaltet. Dann ist nicht nur das Licht, sondern auch die Komposition Zufall. Doku-Style. Aber das ist eben nur ein Anwendungsbereich. Andere haben vielleicht selten Probleme mit dem Kontrast und feuen sich über andere Features mehr.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
Wenn Du Deine Kamera kennen würdest, müsstest Du auch nichts nachträglich retten. Dann wüsstest Du vorher bereits was geht und was nicht.
Wie schon erwähnt, das Beispiel mit der Sonne und den Wolken: habe ich mit dem Werkzeug unterbelichtet, musste ich nachträglich mit NeatVideo entrauschen (ProRes RAW und cinemaDNG).
Das zweite Werkzeug, das sich für solche plötzlich-überbelichtete-Situationen gut eignet, ist der 2in1-Filter (was mir aber zuvor leider unbekannt war), so dass ich heute auf die Umwandlung von ProResRAW in cinemaDNG - um nur in DaVinci mit HR noch bisschen mehr zu retten (was aber nicht immer gut funktioniert) - eigentlich völlig verzichten kann.

Das nur ein Beispiel aus meiner Erfahrung. Die Profis da draußen, die mit Arri kooperieren und mehr DR für nützlich halten, haben sicherlich gute Gründe oder wissen es besser.


Ich meine, schaut euch das Alexa 35 - Bild mal genauer an: https://www.slashcam.de/images/texte/23 ... Alex35.jpg
SlashCam dazu: "Bei diesem Shot sieht man bei starkem Sonnenlicht perfekte Zeichnung in den Highlights bei zeitgleich ausgezeichneter Hautton und Farbwiedergabe in den Schattenbereichen."
So ist es :)

Was soll man das nun z.B. mit einer Z9 machen? Kannst vergessen, hollt dir den 2-in-1 Filter und gut ist ;)

Space


Antwort von pillepalle:

Roki, niemand hat etwas gegen Kameras mit mehr Dynamik. Auch Feature Film Leute freuen sich darüber. Aber man hat auch vor der Alexa 35 mit weniger Dynamik gefilmt. Egal wie schön das Bild ist, ich kann mir jedenfalls keine leisten, brauche sie aber auch nicht. In 90 Prozent aller Sitautionen komme ich mit der Dynamik die ich habe wunderbar hin. Und in den 10% der Fälle wo sie nicht reicht, weiß ich mir zu helfen.

Für Dokumentarfilmer und ENG ist das sicher wichtiger. Aber selbst die arbeiten in der Regel mit Licht und Grip, sofern möglich. Die Diskussion verläuft hier einfach ein wenig einseitig weil man möglichst in jeder Lichtsituation die Kontraste im Griff haben möchte. Das reicht aber nicht für ein gutes Bild, denn selbst wenn die Kamera die Kontraste beherrscht, kann das Licht trotzdem miserabel sein. Und dann rettet Dich auch keine Post mehr.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
Roki, niemand hat etwas gegen Kameras mit mehr Dynamik. Auch Feature Film Leute freuen sich darüber. Aber man hat auch vor der Alexa 35 mit weniger Dynamik gefilmt. Egal wie schön das Bild ist, ich kann mir jedenfalls keine leisten, brauche sie aber auch nicht. In 90 Prozent aller Sitautionen komme ich mit der Dynamik die ich habe wunderbar hin. Und in den 10% der Fälle wo sie nicht reicht, weiß ich mir zu helfen.

Für Dokumentarfilmer und ENG ist das sicher wichtiger. Aber selbst die arbeiten in der Regel mit Licht und Grip, sofern möglich. Die Diskussion verläuft hier einfach ein wenig einseitig weil man möglichst in jeder Lichtsituation die Kontraste im Griff haben möchte. Das reicht aber nicht für ein gutes Bild, denn selbst wenn die Kamera die Kontraste beherrscht, kann das Licht trotzdem miserabel sein. Und dann rettet Dich auch keine Post mehr.


Ja, nur schau dir das bild mal genauer an: https://www.slashcam.de/images/texte/23 ... Alex35.jpg
Da kann man einiges machen, egal ob in 10 oder 12Bit. Zur Eriennerung worum es eigentlich ging.
Die Behauptung dass ein gutes DR nichts bringt... ist so m.M. nicht richtig.
12Bit Bild mit weniger Zeichnung in den Highlights aber auch im Schattenbereich, das ist doch weniger schön.

Space


Antwort von Jörg:

pillepalle, ich bewundere deine Ruhe und Standfesigkeit...
was für ein unsäglicher Beitrag

Space


Antwort von pillepalle:

@ roki

Da kann man einiges machen, sieht aber trotzdem aus wie eingeschlafene Füße ;) Beim slashCAM Test gings aber auch nicht um tolle Bilder, sondern um einen Kameratest. Es hat doch niemand gesagt das mehr DR nichts bringt. Er ist nur nicht für jeden das wichtigste. Für Dich offensichtlich schon.

Hier mal ein Beispiel der Alexa 35 von Art Adams, der angeblich nur mit zwei Appleboxen und einem Slider und den beiden Zooms unterwegs war. Da muss ein Passant im Vorbeigehen dem Modell zufällig ins Gesicht geleuchtet haben ;) Die wissen eben auch was ein gutes Bild ausmacht und das dafür nicht nur eine gute Kamera ausreicht.


zum Bild


VG

Space


Antwort von iasi:

roki100 hat geschrieben:
pillepalle hat geschrieben:
Roki, niemand hat etwas gegen Kameras mit mehr Dynamik. Auch Feature Film Leute freuen sich darüber. Aber man hat auch vor der Alexa 35 mit weniger Dynamik gefilmt. Egal wie schön das Bild ist, ich kann mir jedenfalls keine leisten, brauche sie aber auch nicht. In 90 Prozent aller Sitautionen komme ich mit der Dynamik die ich habe wunderbar hin. Und in den 10% der Fälle wo sie nicht reicht, weiß ich mir zu helfen.

Für Dokumentarfilmer und ENG ist das sicher wichtiger. Aber selbst die arbeiten in der Regel mit Licht und Grip, sofern möglich. Die Diskussion verläuft hier einfach ein wenig einseitig weil man möglichst in jeder Lichtsituation die Kontraste im Griff haben möchte. Das reicht aber nicht für ein gutes Bild, denn selbst wenn die Kamera die Kontraste beherrscht, kann das Licht trotzdem miserabel sein. Und dann rettet Dich auch keine Post mehr.


Ja, nur schau dir das bild mal genauer an: https://www.slashcam.de/images/texte/23 ... Alex35.jpg
Da kann man einiges machen, egal ob in 10 oder 12Bit.

Zur Eriennerung worum es eigentlich ging:
Die Behauptung dass ein gutes DR nichts bringt... ist so m.M. nicht richtig.
12Bit Bild mit weniger Zeichnung in den Highlights aber auch im Schattenbereich, das ist weniger schön.
Nicht verdrehen: Ein gutes DR bringt nichts, wenn es nicht auch in ein Format gepackt wird, mit dem man dann auch etwas machen kann. Die Hauttöne im Beispielbild sind noch zu dunkel - sie anzuheben, erfordert Spielraum.

Und dass man fast schon krampfhaft nach einem Motiv suchen muss, das dann auch den hohen DR endlich mal ausreizt, muss doch auch nicht sein.

Space


Antwort von iasi:

Jörg hat geschrieben:
pillepalle, ich bewundere deine Ruhe und Standfesigkeit...
was für ein unsäglicher Beitrag
Und wenn er so unsäglich ist, weshalb machst du ihn dann? ;)

Space


Antwort von roki100:

pillepalle hat geschrieben:
Es hat doch niemand gesagt das mehr DR nichts bringt.
Doch, darum ging es doch die ganze Zei, Siehe iasi: viewtopic.php?p=1192094#p1192094

Mehr DR ist m.M. auch in 10bit gut, weil die 10Bit Farbendetails in den Schatten und in Lichter trotzdem noch vorhanden sind (dank mehr DR).

Die andere Sache, die Du meinst, kann ich gut verstehen. Ich kann auch mit weniger DR auskommen, aber es gibt Situationen, in denen mehr DR sehr nützlich ist.

Nicht mehr, nicht weniger...

Space


Antwort von pillepalle:

Dann sind wir uns ja einig... Ich nehme die Z9 und Du die Alexa :)

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
Dann sind wir uns ja einig... Ich nehme die Z9 und Du die Alexa :)
Ich nehme lieber cinematch, dann habe ich wenigstens die Farben von Alexa mini^^

Ich habe im Jahr 2023 für mich zwei hervorragende Werkzeuge entdeckt: Cinematch und 2-in-1-Filter^^

Space


Antwort von Darth Schneider:

Wie wäre es mit etwas komplett anderem als immer nur das Thema DR ?
Toneh ?

Auch so ein „möchte gern cinematisches“ Dauer Thema, genau so wie DR, und Color Science..:)))
Gruss Boris

Space


Antwort von roki100:

Der Professor ist wieder da^^

Space


Antwort von Darth Schneider:

@roki
Ha, ha, aber leider gar nicht intelligent und auch nicht witzig…
Gruss Boris

Space


Antwort von iasi:

Das Video zeigt, dass großer DR auch notwendig sein kann - wobei ich mir nicht sicher bin, ob es hier wirklich 16 Stops gebraucht hat.

Was man hier jedoch auch sieht, ist das Limit, an das selbst ein so gutes Zoom bei Gegenlicht und hohem Kontrast stößt:

https://youtu.be/lOo1JQ-c-Q8?t=213

Tolle Aufnahmen.
Aber wenn man den Modells in die Augen sieht, dann ... ;)

Space


Antwort von roki100:

iasi hat geschrieben:
Das Video zeigt, dass großer DR auch notwendig sein kann - wobei ich mir nicht sicher bin, ob es hier wirklich 16 Stops gebraucht hat.
Der Colorist hat aus dem Bild das gemacht was man als Ergebnis siehst. Es ist einfach schön.

Space


Antwort von iasi:

roki100 hat geschrieben:
pillepalle hat geschrieben:
Es hat doch niemand gesagt das mehr DR nichts bringt.
Doch, darum ging es doch die ganze Zei, Siehe iasi: viewtopic.php?p=1192094#p1192094

Mehr DR ist m.M. auch in 10bit gut, weil die 10Bit Farbendetails in den Schatten und in Lichter trotzdem noch vorhanden sind (dank mehr DR).

Die andere Sache, die Du meinst, kann ich gut verstehen. Ich kann auch mit weniger DR auskommen, aber es gibt Situationen, in denen mehr DR sehr nützlich ist.

Nicht mehr, nicht weniger...
16 Stops DR kannst du nicht mal kurz mit einem LUT-drüber ausgeben und alles passt.
Wenn du einen so hohen Lichtkontrast in einem Motiv hast, dann geht es ohne intensives Grading in 99% der Fälle nicht.
Und dann braucht es mehr als 10bit.

Wer hingegen die 16 Stops benötigt, weil er es mit der Belichtung nicht so genau nehmen will, fährt eben die Fix-it-in-Post-Schiene.

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
Das Video zeigt, dass großer DR auch notwendig sein kann - wobei ich mir nicht sicher bin, ob es hier wirklich 16 Stops gebraucht hat.
Der Colorist hat aus dem Bild das gemacht was man als Ergebnis siehst. Es ist einfach schön.
Natürlich.
Wobei der Colorist auch gutes Material erhalten hat. (Sicherlich kein über den Daumen belichtestes 10bit-Material. :) )

Space


Antwort von roki100:

iasi hat geschrieben:
16 Stops DR kannst du nicht mal kurz mit einem LUT-drüber ausgeben und alles passt.
Wie kommst Du jetzt auf "LUT-drüber"? Meinst Du mit "LUT-drüber" auf 12Bit passt eher dann alles besser? Nö.

Space


Antwort von Darth Schneider:

@iasi
Dennoch würde das sehr wahrscheinlich nicht massgeblich schlechter und auch sehr schön aussehen wenn jemand der weiss was er tut mit einer 10 Bit Dslm mit nur 13 Stops gefilmt hätte…

(Und der roki liest ja nicht mal deinen Text richtig und versteht voll das Gegenteil von dem was du eigentlich schreibst.
Funny.;)))
Gruss Boris

Space


Antwort von iasi:

roki100 hat geschrieben:
iasi hat geschrieben:
16 Stops DR kannst du nicht mal kurz mit einem LUT-drüber ausgeben und alles passt.
Wie kommst Du jetzt auf "LUT-drüber"? Meinst Du mit "LUT-drüber" auf 12Bit passt eher dann alles besser? Nö.
Ich meine, dass ein LUT global auf das gesamte Bild wirkt.
12bit Grading erlaubt es jedoch, selbst bei solch einer Aufnahme z.B. das Gesicht anzuheben und die Augen leuchten zu lassen.

https://youtu.be/eyh5KTrAj2A?t=219

Es ist bei einer 16stops-Aufnahme nun einmal nicht so, dass im Histogram die Schatten links, die Lichter rechts und die Mitten in der Mitte liegen, wo sie hin gehören, sodass man alles nur zusammenschieben muss, damit es als Ergebnis passt.

Eine Person in der Sonne vor einem dunklen Wald - mal als Beispiel. Willst du Zeichnung im Wald, wird die Person reichlich belichtet und in der Post korrigiert - mit einer LUT geht das nicht - mit 10bit bekommt man schnell Probleme.

Space


Antwort von Frank Glencairn:

"Belichten" ist ja auch nicht die Aufgabe einer LUT.

Space


Antwort von roki100:

So ist es - egal ob das nun 10 oder 12bit ist.


@iasi, das Video zeigt nur, wie gut der DR von Alexa 35 im Vergleich zu Mini LF ist. Und so wie das aussieht, sieht man, dass da auch genug Gestaltungsspielraum dabei ist.

Space


Antwort von Darth Schneider:

RAW geht jedenfalls nur ab 12 Bit, also egal ob 10 oder 12 Bit ist das ganz bestimmt nicht für alle.
Gruss Boris

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
"Belichten" ist ja auch nicht die Aufgabe einer LUT.
"Belichten" ?
Das Bild entsteht in 2 Schritten:
ETTR liefert eine Aufnahme, die die Bildinhalte in technisch möglichst idealer Weise in ein digitales Format umsetzt.
Die Bildgestaltung erfolgt dann endgültig in der Post.

Das ist dann auch der generelle Unterschied zu Film - und auch Video.

"Belichten" wird man einen Sensor in der Form, dass keine Lichter ausbrennen und die Schatten einen möglichst großen Signal-Rausch-Abstand aufweisen. Wenn die Mitten, also auch Hauttöne, dabei reichlicher oder etwas knapper belichtet werden, spielt das keine Rolle, denn im zweiten Schritt - in der Post - werden die Helligkeitsbereich justiert, also die Hauttöne abgedunkelt und aufgehellt.
Mit den Farben ist es dasselbe. Bei der Aufnahme strebt man die native Sensorfarbtemperatur an, vermeidet aber vor allem (ungewünschtes) Mischlicht.

Licht ist dabei ein Gestaltungsmittel - Lichtsetzung dient nicht dazu ein fertiges Bild direkt aus der Kamera zu generieren, das den zweiten Arbeitsschritt (Grading) überflüssig macht.

Space


Antwort von Darth Schneider:

@iasi
Zitat von dir:
Licht ist dabei ein Gestaltungsmittel - Lichtsetzung dient nicht dazu ein fertiges Bild direkt aus der Kamera zu generieren, das den zweiten Arbeitsschritt (Grading) überflüssig macht.

Das kann aber durchaus auch so sein.
Schönes Licht kann Grading überflüssig machen, wer z.B. mit LoG filmt braucht mit entsprechend perfekt passend gesetztem Licht gar nicht zwingend Colorgrading und so gut wie gar keine Colorcorrection.
Das kommt auf den Workflow an und darauf was und wie man man das am Schluss will…
Gruss Boris

Space


Antwort von iasi:

roki100 hat geschrieben:
So ist es - egal ob das nun 10 oder 12bit ist.


@iasi, das Video zeigt nur, wie gut der DR von Alexa 35 im Vergleich zu Mini LF ist. Und so wie das aussieht, sieht man, dass da auch genug Gestaltungsspielraum dabei ist.
Es mag sein, dass das ArriRaw-Material in diesem Beispiel noch den Spielraum bietet, aber hier wurde die Lichtgestaltung vernachlässigt - damit meine ich nicht ein Ausleuchten im Hinblick auf korrekte Belichtung des Gesichts und der Augen, sondern die fehlende Gestaltung.
2 Blendenstufen Unterbelichtung wären gar nicht das Problem, sondern die Qualität des Lichtes.

Vielleicht ist es ja beabsichtigt, aber hier hast du ein hartes, schattiges und Poren betonendes Licht auf Gesicht und Augen:



Wenn sie zur Seite blickt, werden die Augen heller und die Augenschatten verschwinden.
Leider wird dieses Gestaltungsmittel verschenkt, denn ihr Lächeln erfolgt dann mit abgedunkeltem Gesicht und gesenktem Kopf.
Auch über das Zurückgehen von Nah auf Halbnah und dann wieder auf Nah könnte man diskutieren.

Space


Antwort von andieymi:

Abenteuerliche Thesen mal wieder über die "Bildgestaltung in der Post"...

Im Prinzip hat iasi ja gar nicht unrecht mit dem was er schreibt. Aber so wie er das immer durchexerziert löst sich alles, was daran Sinn macht wieder ins Gegenteil auf. Egal was da ausm Lehrbuch stimmt wird in der Praxis 1000-fach erfolgreich von den Größten in der Branche anders gemacht als iasi schreibt. Unerwünschtes Mischlicht heißt dann Farbkontrast (wo er in der Ausstattung her keinen Sinn macht weil nicht bei gleicher Lichtfarbtemperatur umsetzbar - oder lackiert jemand Straßenpflaster vorm Wet-Down noch schnell passend farbig, um das ohne Mischlicht trotzdem andersfarbig aussehen zu lassen?). Niemand, der es sich leisten kann einen Coloristen zu engagieren, dessen einziger Job es ist Footage auf diverseste Arten zu optimieren (weswegen die das auch meist besser können als Kameraleute, deren Hauptaufgabe sagen wir mal ist eine Geschichte in Bilder zu übersetzen und einen Look zu definieren) belichtet Footage so sehr ETTR, dass die nicht auch im Prinzip wie am Set gesehen nutzbar ist. Diese ETTR-Fantasien stimmen technisch und werden auch in Grenzen (dunklerer Preview-LUT für Regie/Kunden) so durchgezogen, aber da geht's weitestgehend dann doch um 1 Blende mehr oder weniger und werden wie iasi das schildert quasi nur von Leuten umgesetzt, die alles in der Post selbst lösen, die äußerste Kontrolle über ein Projekt haben. Das ist für viele in der Praxis eine völlig Illusion.

Erstere sind üblicherweise wiederum nicht die Profis. Ansonsten hätte sich der "Alles-selbst-machende"-Filmemacher qualitativ wie letztendlich ökonomisch durchgesetzt. Aber im Gegenteil, es gibt kaum einen Bereich der Kreativindustrie (CG/VFX vielleicht?) der so durchspezialisiert ist wie die Filmbranche und der qualitative Zugewinn für das Gesamtprojekt ist auch mit moderatem ETTR (und ohne die Zeit des Coloristen mit erst mal alles 2-3 Blenden runterbringen zu verschwenden) allein durch die Auslagerung des Gradings an Spezialisten gegeben.

Stimmt alles in der Theroie. Der ETTR Ansatz macht aber in der Praxis (unabhängig von weiteren Workflowüberlegungen) auch nur eingeschränkt Sinn, nämlich nur wenn die Diskrepanz zwischen Skintones und Highlights nicht zu groß wird - ergo man eh alles kontrollieren kann. Also entweder gibt es keine unkontrollierbaren Highlights, oder aber das generelle Lichtlevel der Szene kann so gesteigert werden, dass sich die Diskrepanz zwischen Skintones und Highlights erübrigt. Üblicherweise haben aber Szenen mit hohem Motivkontrast genau da das Problem: Zu große Diskrepanz zwischen Haut und Highlights. Es wird irgendwann nicht mehr möglich Skintones ETTR-mäßig zu belichten, wenn nicht direkt die Highlights geopfert werden. Wenn die Highlights aber drinbleiben sollen, wird aus dem ganzen ETTR plötzlich ein "Skintones sitzen eh in der Mitte". Das ist auch der Grund, wieso ETTR in Dynamiküberlegungen nichts verloren haben sollte, da zählt letztendlich einfach nur, ob der Motivkontrast innerhalb des möglichen Maximalkontrasts des aufzeichenenden Systems liegt. Und dann wird auf einmal spannend: Wie sehr rauschen die eigentlich eine halbe Blende unterbelichteten Skintones bei kompletter Durchzeichnung der Highlights? Da interessiert wenig, ob sie theoretisch bei 2 Blenden mehr Licht am Sensor weniger rauschen würden, denn dann wären die Highlights weg.
iasi hat geschrieben:
Das ist dann auch der generelle Unterschied zu Film - und auch Video.
Worüber sprichst Du dann? Weder digitale noch analoge Bilder?
iasi hat geschrieben:
Es ist bei einer 16stops-Aufnahme nun einmal nicht so, dass im Histogram die Schatten links, die Lichter rechts und die Mitten in der Mitte liegen, wo sie hin gehören, sodass man alles nur zusammenschieben muss, damit es als Ergebnis passt.

Eine Person in der Sonne vor einem dunklen Wald - mal als Beispiel. Willst du Zeichnung im Wald, wird die Person reichlich belichtet und in der Post korrigiert - mit einer LUT geht das nicht - mit 10bit bekommt man schnell Probleme.
Das meine ich quasi mit meinem Beispiel oben. Du verstehst ja wirklich worum es geht, aber ziehst die falschen Schlüsse: Dein Beispiel einer hellen Person vor dunklem Wald birgt keinerlei Dynamik-Probleme, das ist quasi der Idealfall. Du hast keine Highlights, die nicht Skintones wären und hilfts gleichzeitig durch ausreichende Belichtung der Schatterdurchzeichnung im Wald. Aber du belichtest ja trotzdem nicht auf den Wald? Denn in dem Szenario schafft das jede halbwegs gute Kamera Skintones einfach dort abzubilden wo sie halbwegs natürlich liegen und trotzdem Durchzeichnung bis in die tiefen Schatten zu haben, das ist ja nicht die Kunst.

Die Realität und wo die Probleme meist auftauchen sieht aber genau andersrum aus: Wenn ich eine Person im Closeup mit inadäquater Beleuchtung im Wald stehen habe, ist trotzdem der Himmel oder Sonnenstrahlen (an der Quelle unkontrollierbar) durch die Bäume das Hellste im Bild. Da hilft ETTR keinen Deut. Selbst mehr Licht auf der Person ist im Normafall ohne viel Erfahrung schwierig zu realisieren, ohne extrem geleuchtet auszusehen, wenn der Mittelgrund rundherum recht dunkel bleibt. Das ist dann eine Situation, in der Dynamik zählt: Mit wie viel Rauschen muss ich in eigentlich bildrelevanten Teilen leben, wenn ich das trotzdem relativ Naturalistisch belichte, d.h. die Highlights vor Clipping, die Skintones weg vom Sweet-Spot sondern adäquat für schattigen Wald und die Schatten fallen dann wo sie fallen. Das ist Dynamik, da zeigt sich wirklich welche Kameras das können. Der von dir gezeigte Fall ist eigentlich der Belichtungs- und bilgestaltungs Best Case, das taugt nicht als Argument für ETTR.

Und der am Ende beschrieben Fall zeigt eigentlich auch, wie sinnlos eine pauschalisiert eingeplante Belichtungsanpassung in der Post ist: Schafft die Kameradynamik das dargestellte Beispiel, werde ich da in der Post an der Belichtung wenig ändern wollen. Rauschen die Skintones nicht, funktionieren die im Wald auch in den tieferen Mitten denn dort erwartet niemand High-Key-Skintones. Evtl. reduziert man dann trotzdem die Diskrepanz zwischen Skintones und Highlights etwas und bringt die Highlights runter. Aber in dieser Situation erwartet niemand die (in der Praxis nie so umgesetzte) Mär vom Gesicht als hellster Stelle im Bild - wenn der Himmel durch die Bäume schaut. Und statt die Skintones hochzuziehen, bietet sich oft an das nur bei den helleren Bereichen etwas zu machen, was allein und für sich das oft alleinige Problem dieser Situationen (zu wenig Kontrast dann in den Mitten-Tiefmitten) schmälert und gleichzeitig kaum zu mehr Rauschen führt, weil man eigentlich nur die Hochmitten etwas pusht und das ist noch kein Bereich, wo Kameras rauschen.

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Zitat von dir:
Licht ist dabei ein Gestaltungsmittel - Lichtsetzung dient nicht dazu ein fertiges Bild direkt aus der Kamera zu generieren, das den zweiten Arbeitsschritt (Grading) überflüssig macht.

Das kann aber durchaus auch so sein.
Schönes Licht kann Grading überflüssig machen, wer z.B. mit LoG filmt braucht mit entsprechend perfekt passend gesetztem Licht gar nicht zwingend Colorgrading und so gut wie gar keine Colorcorrection.
Das kommt auf den Workflow an und darauf was und wie man man das am Schluss will…
Gruss Boris
Warum soll ich auf die Gestaltungsmittel der Post verzichten?

Perfekt gesetztes Licht ist doch in einer Produktion mit begrenztem Budget eine Illusion.
Wenn ich ein Augenlicht auf eine sich bewegende Person setzen muss oder die Augen in der Post gezielt aufhelle, dann ist das für den Dreh ein bedeutender Unterschied.
So schnell und exakt wie in der Post bekomme ich zudem die Betonung eines Bildbereiches durch leichtes Anheben der Helligkeit nicht hin.
Man muss sich mal klar machen, was es bedeutet, das am Set umzusetzen, was er hier mal eben beim Grading gemacht hat:

https://www.youtube.com/watch?v=BcqFXkhRIdI

Space


Antwort von Darth Schneider:

@iasi
Warum soll ich auf die Gestaltungsmittel der Post verzichten?

Weil manchmal will man (beziehungsweise der Kunde) mit dem Licht, den Kostümen und mit den Props den Look schon vorweg fix definieren..
Dann braucht es eigentlich gar keinen Gestaltungsfreiraum in Post.
Ausser natürlich man weiss beim filmen nicht was man tut..;)

Stichwort (zum Beispiel), Theater/Bühnenaufnahmen/Live Events, Sport, News, viele Dokus, und so weiter…

Und perfekt gesetztes Licht ist gar keine Illusion, nur nicht in jeder Situation kann man das, oder man setzt ganz einfach andere, beziehungsweise auch falsche Prioritäten.
Oder man ist ganz einfach zu faul es zu tun…D
Gruss Boris

Space


Antwort von iasi:

andieymi hat geschrieben:
Abenteuerliche Thesen mal wieder über die "Bildgestaltung in der Post"...

Im Prinzip hat iasi ja gar nicht unrecht mit dem was er schreibt. Aber so wie er das immer durchexerziert löst sich alles, was daran Sinn macht wieder ins Gegenteil auf. Egal was da ausm Lehrbuch stimmt wird in der Praxis 1000-fach erfolgreich von den Größten in der Branche anders gemacht als iasi schreibt. Unerwünschtes Mischlicht heißt dann Farbkontrast (wo er in der Ausstattung her keinen Sinn macht weil nicht bei gleicher Lichtfarbtemperatur umsetzbar - oder lackiert jemand Straßenpflaster vorm Wet-Down noch schnell passend farbig, um das ohne Mischlicht trotzdem andersfarbig aussehen zu lassen?). Niemand, der es sich leisten kann einen Coloristen zu engagieren, dessen einziger Job es ist Footage auf diverseste Arten zu optimieren (weswegen die das auch meist besser können als Kameraleute, deren Hauptaufgabe sagen wir mal ist eine Geschichte in Bilder zu übersetzen und einen Look zu definieren) belichtet Footage so sehr ETTR, dass die nicht auch im Prinzip wie am Set gesehen nutzbar ist. Diese ETTR-Fantasien stimmen technisch und werden auch in Grenzen (dunklerer Preview-LUT für Regie/Kunden) so durchgezogen, aber da geht's weitestgehend dann doch um 1 Blende mehr oder weniger und werden wohl hauptsächlich von Leuten umgesetzt, die alles in der Post selbst lösen, die äußerste Kontrolle über ein Projekt haben.
Ja was denn nun - ETTR oder Mischlicht? Spring mal nicht ständig von einem zum anderen.
Mischlicht heißt nicht Farbkontrast.

Niemand hellt mit einer Kunstlichtquelle bei Tageslicht auf, wenn er nicht diesen "Effekt" beabsichtigt - darum geht es bei Mischlicht.

ETTR bedeutet nun mal, dass man eben nicht wie bei Film und Video auf die Mitten hin belichtet.
Hier wird von 16 Blendenstufen DR geredet und die Mitten dürfen nur um 1 Blendenstufe abweichen? Echt jetzt?
ETTR hat auch nichts mit Fantasien zu tun, sondern ist eine rein technische Sache - ganz egal, was Regie/Kunden nun als Preview gerne sehen wollen.
andieymi hat geschrieben:
Das sind üblicherweise wiederum nicht die Profis. Ansonsten hätte sich der "Alles-selbst-machende"-Filmemacher qualitativ wie letztendlich ökonomisch durchgesetzt. Aber im Gegenteil, es gibt kaum einen Bereich der Kreativindustrie (CG/VFX vielleicht?) der so durchspezialisiert ist wie die Filmbranche und der qualitative Zugewinn für das Gesamtprojekt ist auch mit moderatem ETTR (und ohne die Zeit des Coloristen mit erst mal alles 2-3 Blenden runterbringen zu verschwenden) allein durch die Auslagerung des Gradings an Spezialisten gegeben.
Ein Profi weiß, dass Drehzeit das zig-fache dessen kostet, was man für die Zeit eines Coloristen bezahlen muss.
Üblicherweise ist daher die Drehzeit sehr viel kürzer, als die Post.
Es gibt auch kein "moderates ETTR" - wenn, dann schützt man vielleicht Lichter und belichtet ein wenig knapper, aber das ändert nichts am Prinzip.
Vor allem macht es auch keinen Unterschied, ob der Colorist die Mitten nun um 1 oder um 2-3 Blenden runterbringen muss.
andieymi hat geschrieben:
Stimmt alles in der Theroie. Der ETTR Ansatz macht aber in der Praxis (unabhängig von weiteren Workflowüberlegungen) auch nur eingeschränkt Sinn, nämlich nur wenn die Diskrepanz zwischen Skintones und Highlights nicht zu groß wird - ergo man eh alles kontrollieren kann. Also entweder gibt es keine unkontrollierbaren Highlights, oder aber das generelle Lichtlevel der Szene kann so gesteigert werden, dass sich die Diskrepanz zwischen Skintones und Highlights erübrigt. Üblicherweise haben aber Szenen mit hohem Motivkontrast genau da das Problem: Zu große Diskrepanz zwischen Haut und Highlights. Es wird irgendwann nicht mehr möglich Skintones ETTR-mäßig zu belichten, wenn nicht direkt die Highlights geopfert werden. Wenn die Highlights aber drinbleiben sollen, wird aus dem ganzen ETTR plötzlich ein "Skintones sitzen eh in der Mitte". Das ist auch der Grund, wieso ETTR in Dynamiküberlegungen nichts verloren haben sollte, da zählt letztendlich einfach nur, ob der Motivkontrast innerhalb des möglichen Maximalkontrasts des aufzeichenenden Systems liegt. Und dann wird auf einmal spannend: Wie sehr rauschen die eigentlich eine halbe Blende unterbelichteten Skintones bei kompletter Durchzeichnung der Highlights? Da interessiert wenig, ob sie theoretisch bei 2 Blenden mehr Licht am Sensor weniger rauschen würden, denn dann wären die Highlights weg.
Das Problem mit der zu großen Diskrepanz zwischen Haut und Highlights ergibt sich aus Objektiveffekten und gänzlich fehlender Lichtgestaltung. Eine sonnenbeschienene Landschaft und das Gesicht im Schatten eines Baumes tut nicht gut - dabei geht es auch um die "Qualität" des Lichtes. Wenn dann die Sonne auch noch ins Objektiv strahlt, steckt das ein Objeektiv auch nicht einfach weg.

ETTR bedeutet, dass keine Highlights weg sind.
Meist bedeutet das dann auch, dass die Skintones bei der Aufnahme eben gerade nicht in der Mitte sitzen - da wollen wir sie (überlicherweise) nach dem Grading haben.
Je nach Motiv können die Hauttöne überbelichtet sein, was kein Problem darstellt. Dadurch werden die Schatten mit einem größeren Signal-Rauschabstand belichtet.

Der DR einer Kamera hat eben vor allem dann eine Bedeutung, wenn die Hauttöne unterbelichtet werden müssen, um die Highlights nicht clippen zu lassen.
Eine Alexa 35 mit ihren 16 Stops DR zeichnet sich ja gerade dadurch aus, dass sie hier einen großen Spielraum bietet, bei dem das Rauschen noch nicht problematisch wird und die Farben konstant bleiben. Auch bei Unterbelichtung stimmen die Hauttöne.
Da man aber Licht zur Gestaltung einsetzt, ist eine starke Unterbelichtung der Hauttöne nicht notwendig.


andieymi hat geschrieben:
iasi hat geschrieben:
Das ist dann auch der generelle Unterschied zu Film - und auch Video.
Worüber sprichst Du dann? Weder digitale noch analoge Bilder?
Bei analogen Bildern und bei Video belichtet man nicht ETTR.
Die Mitten (Hauttöne) müssen korrekt belichtet sein.

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Warum soll ich auf die Gestaltungsmittel der Post verzichten?

Weil manchmal will man (beziehungsweise der Kunde) mit dem Licht, den Kostümen und mit den Props den Look schon vorweg fix definieren..
Dann braucht es eigentlich gar keinen Gestaltungsfreiraum in Post.
Ausser natürlich man weiss beim filmen nicht was man tut..;)

Stichwort (zum Beispiel), Theater/Bühnenaufnahmen/Live Events, Sport, News, viele Dokus, und so weiter…
Da hast du ja sowieso schon mal keine Kontrolle über das Licht.
"Darth Schneider" hat geschrieben:
Und perfekt gesetztes Licht ist gar keine Illusion, nur nicht in jeder Situation kann man das, oder man setzt ganz einfach andere, beziehungsweise auch falsche Prioritäten.
Oder man ist ganz einfach zu faul es zu tun…D
Gruss Boris
Du hast gar nicht die Drehzeit und die Mittel (finanziell, materiell, personell), um bei einer (normalen) Produktion das Licht so zu setzen, dass es in der Post nicht mehr perfektioniert werden könnte.

Selbst in Hollywood mit riesigen Budgets kaspern die Darsteller vor grünen Flächen herum, was (dem Kunden) noch gar nichts davon zeigt, wie es am Ende aussehen wird.
Das, was aus der Kamera kommt, ist doch heute nicht mehr das, was am Ende auf der Leinwand zu sehen ist.

Space


Antwort von Darth Schneider:

@iasi
Natürlich hast du einerseits recht. Weiss ich doch auch, aber ich bin kein unter Druck stehender Profi.
Also habe ich eigentlich alle Zeit der Welt um Licht zu setzen, zumindest in meiner Freizeit…

Und auch bei zig Low Budget Filmen schaffen es die Macher schon seit 100 Jahren sehr schönes Licht zu setzen…Auch ganz ohne Colorgrading. .

Abgesehen davon wissen doch eh gar nicht alle (eher die wenigsten Leute hier) wie das Colorgrading und auch die Colorcorrection wirklich richtig geht.

Weil sehr (Zeit) aufwendig das wirklich zu lernen, das ist immerhin ein eigener Beruf, genau so wie das wirklich professionelle lichtsetzen …
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Natürlich hast du einerseits recht. Weiss ich doch auch, aber ich bin kein unter Druck stehender Profi.
Also habe ich eigentlich alle Zeit der Welt um Licht zu setzen, zumindest in meiner Freizeit…

Und auch bei zig Low Budget Filmen schaffen es die Macher schon seit 100 Jahren sehr schönes Licht zu setzen…Auch ganz ohne Colorgrading. .

Abgesehen davon wissen doch eh gar nicht alle (eher die wenigsten Leute hier) wie das Colorgrading und auch die Colorcorrection wirklich richtig geht.

Weil sehr (Zeit) aufwendig das wirklich zu lernen, das ist immerhin ein eigener Beruf, genau so wie das wirklich professionelle lichtsetzen …
Gruss Boris
Shane war schnell gedreht, aber es dauerte 2 Jahre, bis er geschnitten war.

Zeit ist ein Faktor - und Zeit in der Post hat man eigentlich viel mehr zur Verfügung, wenn man sie sich nimmt.
Colorgrading ist der eigentliche Fortschritt der digitalen Cine-Technik.
Man muss nur das bestmögliche Ausgangsmaterial liefern - das bedeutet, dass man das Grading während der Aufnahme mitdenken muss.
Der größte Hemmschuh, den die digitale Cine-Technik leider auch geliefert hat, sind die Vorschaumöglichkeiten.
Leider wollen viel zu viele Leute das Bild und sogar schon das Endergebnis auf dem Vorschaumonitor sehen und nicht nur das Schauspiel und die Bildinhalte beurteilen.

Hier wurde mal mehr mal weniger Grading genutzt - genutzt wurde es aber:



(Übrigens kam 6 von 10 mal eine Red Monstro VV und nur eine Alexa LF zum Einsatz) :)

Space


Antwort von Darth Schneider:

@iasi
Alles auch (aber bei weitem nicht nur) visuell wunderschöne Filme, aber gar nix von digitalem Colorgrading, Colorcorrection oder besonders viel DR…;)))









Und jetzt zeig mir doch bitte mal nur einen einzigen neuen Film der wegen den 14- 17 Stops DR, dem „fixing Colors, Light und DR in Post Konzept“ und mit bis zu 16 Bit RAW mitsamt dem Colorgrading visuell irgend in einer Form besser ausschaut ?
Bezogen auf was verglichen mit, NUR mit Licht und Produktions Design, ohne CGI, beziehungsweise halt fast nur in Kamera auch vorgestern möglich war ?
Beeindrucke mich mal…!

Zu vergleichen aber bitte nur im echten Kino.
Weil die digitalen YouTube Trailer da oben sehen im Vergleich zum Kino Alle echt scheisse aus…;)))

Gruss Boris

Space


Antwort von Darth Schneider:

"Darth Schneider" hat geschrieben:

@iasi
Alles auch (aber bei weitem nicht nur) visuell wunderschöne Filme, aber gar nix von digitalem Colorgrading, Colorcorrection oder besonders viel DR…;)))









Und jetzt zeig mir mal nur einen einzigen neuen Film der wegen den am liebsten doch 15 - 17 Stops DR und mit bis zu 16 Bit RAW und Colorgrading und dem modernen fixing Colors und DR in Post Konzept visuell irgend in einer Form besser ist ?

Zu vergleichen aber bitte nur im echten Kino….D

Gruss Boris


Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Alles auch (aber bei weitem nicht nur) visuell wunderschöne Filme, aber gar nix von digitalem Colorgrading, Colorcorrection oder besonders viel DR…;)))

Und jetzt zeig mir doch bitte mal nur einen einzigen neuen Film der wegen den 14- 17 Stops DR, dem „fixing Colors, Light und DR in Post Konzept“ und mit bis zu 16 Bit RAW mitsamt dem Colorgrading visuell irgend in einer Form besser ausschaut ?
Bezogen auf was verglichen mit, NUR mit Licht und Produktions Design, ohne CGI, beziehungsweise halt fast nur in Kamera auch vorgestern möglich war ?
Beeindrucke mich mal…!

Zu vergleichen aber bitte nur im echten Kino.
Weil die digitalen YouTube Trailer da oben sehen im Vergleich zum Kino Alle echt scheisse aus…;)))

Gruss Boris
Wenders hat hier einiges zu sagen, über digitale Restoration - und auch darüber was man früher in den Kinos zu sehen bekam. Da spielt heute leider sehr viel Nostalgie mit hinein und verklärt, was man früher auf der Leinwand zu sehen bekam.
Die heutige digitale Restaurartion von Filmen beinhaltet auch immer Grading.

https://lwlies.com/interviews/wim-wende ... -the-film/

Und hier mal der Unterschied, den digitales Color-Grading ausmacht:





Space


Antwort von Darth Schneider:

@iasi
Das mag man den YouTube Trailers nicht ansehen, aber im Kino hat mich das da unten damals genau so beeindruckt wie der neue MAD Max/Blade Runner eher noch mehr..




Die neuen waren sehr gut, keine Frage, aber die alten Filme (nicht nur) visuell im Kino mindestens 10 x besser…
Das in eigentlich jeder Hinsicht.

Nun gut, Harrison war noch jung und Hot, und Mel auch einfach doch etwas besser als der neue Max.
Solche Schauspieler (Charaktere) kann man nicht einfach durch neue ersetzen…

Siehe auch Batman:



Der neue Batman ist wirklich echt sehr gut, kann aber dem alten Michael Keaton Batman doch immer noch nicht das Wasser reichen. Auch wenn er 2023 nur als relativ kleine Nebenrolle in Flash aufgetaucht ist…;)))
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Das mag man den YouTube Trailers nicht ansehen, aber im Kino hat mich das da unten damals genau so beeindruckt wie der neue MAD Max/Blade Runner eher noch mehr..




Die neuen waren sehr gut, keine Frage, aber die alten Filme (nicht nur) visuell im Kino mindestens 10 x besser…
Das in eigentlich jeder Hinsicht.

Nun gut, Harrison war noch jung und Hot, und Mel auch einfach doch etwas besser als der neue Max.
Solche Schauspieler (Charaktere) kann man nicht einfach durch neue ersetzen…

Siehe auch Batman:



Der neue Batman ist wirklich echt sehr gut, kann aber dem alten Michael Keaton doch immer noch nicht das Wasser reichen. Auch wenn er 2023 nur als relativ kleine Nebenrolle in Flash aufgetaucht ist…;)))
Gruss Boris
Ist doch bezeichnend, dass du die aufbereitete 4k-Version von Mad Max 2 verlinkst. :)

Wie es Wenders schon richtig sagt:
Im Kino bekam man die sechste oder siebte Kopie gezeigt - und musste froh sein, wenn der Projektor ordentlich eingerichtet war.

Mad Max: Fury Road hätten wir ohne Grading nicht in dieser Form erhalten.

Space


Antwort von Darth Schneider:

@iasi
Das ist schon klar, der neue MAD Max sieht sicher visuell dank neuer Technik (und dank höherem Budget) und sicher auch wegen dem Grading besser, crisper, bunter, schärfer und dank CGI viel mehr durchgestylt aus.
Aber der Film ist eben trotzdem nicht besser…:)))
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Das ist schon klar, der neue MAD Max sieht sicher visuell dank neuer Technik (und dank höherem Budget) und sicher auch wegen dem Grading besser, crisper, bunter, schärfer und dank CGI viel mehr durchgestylt aus.
Aber der Film ist eben trotzdem nicht besser…:)))
Gruss Boris
Besser als was? :)

M.M.F.R. ist einzigartig.
Was willst du denn vergleichen?

Space


Antwort von pillepalle:

Fand die Zahlen aus dem Nikon Geschäftsbericht für's erste Quartal ganz interessant, weil sich neben den Stückzahlen die Nikon verkauft auch eine Schätzung des gesamten Marktes findet (für Kameras mit Wechselmount und Objektive). Demnach werden weltweit jährlich knapp 6 Millionen Kameras und ca. 9 Millionen Objektive verkauft. Nur mit den Prozentzahlen der CIPA hatte ich bisher eigentlich keine wirkliche Vorstellung davon in welcher Größenordnungen sich der Kameramarkt bewegt.

April 1 – June 30, 2023:

Revenue: ¥74.4 billion
Earnings: ¥15.3 billion
Bodies: 220,000 (compared to 200,000 Q1 2022)
Lenses: 330,000 (compared to 340,000 Q1 2022)

Full fiscal year projection:

Revenue: ¥250 billion (up from 5/11 projection of ¥240 billion and FY 2022 actual of ¥227.1 billion)
Earnings: ¥41 billion (up from 5/11 projection of ¥38 billion and (down from) FY 2002 actual of ¥42.2 billion)
Bodies: 750,000 (up from 5/11 projection of 700,000 and FY 2022 actual of 700,000)
Lenses: 1,200,000 (up from 5/11 projection of 1,150,000 and FY 2022 actual of 1,160,000)

Unit share: (compared to CIPA units of same months)

Bodies: 13.9% (Full-year 2022: 12.1%)
Lenses: 13.3% (Full-year 2022: 12.3%)
Value share (compared to CIPA shipped value of same months): 23.8%

Nikon claims market is:

Bodies: 5.8 million (giving Nikon a 12.9% FY2023 unit share based on their projections)
Lenses: 9.4 million (giving Nikon a 12.8% FY2023 unit share based on their projections)


In einem Q&A Dokument aus dem Geschäftsbericht des ersten Quartals von Nikon gab es auch ein ganz interessantes Statement zu Smartphonenutzern, das mich etwas überrascht. Demnach sollen unzufriedene Smartphone-Nutzer zu High End DSLMs greifen... *kopfkratz*
Q: The Imaging Business has been revised upwards, but do you think there is room for further upward revisions considering factors such as the Z8, which is selling well?

A : Our products are highly rated by our customers and our market share is steadily recovering. Especially in China, although we are aware of concerns about an economic slowdown, the digital camera market is doing well. Young people who are not satisfied with the functions of smartphones have purchased high-end models such as the Z 9 and Z 8, and I feel that we are entering an era in which digital cameras and smartphones coexist. In addition, we expect an increase in demand for digital cameras due to increased travel demand in the post-corona era. On the other hand, we anticipate that the competitive environment will become more severe in the second half due to the normalization of supply and demand in the market as a whole, so we plan to increase sales promotion expenses.
VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Fand die Zahlen aus dem Nikon Geschäftsbericht für's erste Quartal ganz interessant, weil sich neben den Stückzahlen die Nikon verkauft auch eine Schätzung des gesamten Marktes findet (für Kameras mit Wechselmount und Objektive).
Petapixel hatte vor einem Jahr einen - soweit ich das beurteilen kann - sehr interessanten analytischen Artikel über Nikons Geschäftsstrategie:
https://petapixel.com/2022/04/14/nikon- ... s-anymore/

EDIT: Wenn man den mit den von Dir geposteten Zahlen kombiniert, ergibt sich, dass Nikon sich zwar gut beim Verkauf von Kameras schlägt, aber beim selbstgesteckten Ziel, im Schnitt zwei Objektive pro Kamera zu verkaufen, zurückfällt.

Sowieso finde ich Mike Smiths Artikel über die Kameraindustrie bei Petapixel analytisch gut:
https://petapixel.com/2022/10/24/the-ch ... facturers/

Space


Antwort von pillepalle:

Wobei der Imaging Sektor bei Nikon mit Abstand immer noch der wichtigste Geschäftsbereich ist und auf absehbare Zeit auch bleiben wird. Aber gut möglich das sie sich generell versuchen werden breiter aufzustellen.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Wobei der Imaging Sektor bei Nikon mit Abstand immer noch der wichtigste Geschäftsbereich ist und auf absehbare Zeit auch bleiben wird.
In dem von mir verlinkten Artikel wird wiederum Nikons "Mid-Term Business Strategy" verlinkt, in der Imaging und Precision Equipment als zwei gleichwertige Grundsäulen der Firma beschrieben werden und die übrigen Sparten als kleinere, aber mit mehr Wachstumspotential:

Screenshot from 2023-08-11 23-27-10.png Quelle: https://www.nikon.com/company/ir/manage ... 7e_all.pdf

Das ist aber völlig normal, und es kann für Nikon-Kunden nur gut sein, wenn ihr Hersteller breit aufgestellt ist. Canon und Ricoh sind ja heute primär Bürogerätehersteller und Fuji primär ein Pharma-/Kosmetikhersteller. IMHO gibt es in Japan keinen einzigen Hersteller mehr, der mit Imaging/Kameras die Mehrheit seines Umsatzes erzielt (auch Nikon tut das nicht).

Space


Antwort von pillepalle:

Ja, das ist deren Vison 2030 Plan. Wobei die beiden Geschäftbereiche nicht gleichwertig sind, sondern nur beide Teil des Kerngeschäfts bleiben. Siehst Du auch an den aktuellen Zahlen, das Imaging mehr als doppelt soviele Einnahmen generiert wie der zweitgrößte Geschäftsbereich (Precision Equipment Business).

VG

Space


Antwort von roki100:

https://youtu.be/hrpuJq1k9go?t=166

Mit N-LOGv2 sieht es doch gut aus.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Nikon Z6 (II) / Z7 (II) / Z9 ...-Forum

Antworten zu ähnlichen Fragen //


Drei Nikon Z 9 Lesertests aus der professionellen Praxis + Bekanntgabe des Z 9 Gewinners
Viele hochkarätige Bewerbungen für den slashCAM Nikon Z 9 Lesertest
Herausragende Bewerbungen für den slashCAM Lesertest der Nikon Z6 II
Kurztest: Die Videoqualität der Nikon D750 (Preproduction) im Sensor-Reado
Test: Nikon D4s: Expeed 4 und 1080/50p
Test: Nikon D3300 - Preisgünstige und wenig limitierte Rebel-Cam?
Test: Nikon D5300
Test: Nikon D7100 (vs Nikon D5200)
Test: Nikon D7100: Messergebnisse
Test: Nikon D600
Test: Nikon D800
Test: Nikon D4 / Teil 2
DVD Lab Pro
Zhiyun Crane 3 Lab "Motoren defekt"?
Topaz Lab Video Enhance AI v2.0 ist da
Nikon Z6II und Video Assist 12G: Wie gut ist Blackmagic Raw mit der Nikon Z6II in der Praxis?
MacBook Pro M2 Max im Performance-Test bis 12K RAW mit ARRI, RED, Canon, BMD, Sony, Panasonic ...
slashCAM präsentiert: Nikon RAW Grading-Wettbewerb - Nikon Z 8 zu gewinnen!
Canon EOS R3 Sensor Test - 6K Large Format RAW für 6K!
Nikon Z8 1.01 und Nikon Z9 4.01 Firmware Updates mit videorelevanten Verbesserungen
Neue Nikon Z7 II nimmt mit Atomos Ninja 4Kp30 ProRes RAW auf - gegen Aufpreis
Blackmagic RAW für Nikon Z6 II und Panasonic S1H mit dem Video Assist 12G HDR
Blackmagic Design DaVinci Resolve Version 17.4.6 Update - u.a. mit Nikon RAW
Nikon Z6 mit Atomos Ninja ProRes RAW
Nikon Z5II vorgestellt mit N-RAW, N-log, 10bit und mehr
HARDCORE - GEAR - Test DJI RS2 mit A7s iii, Raveneye bei -25 Grad in einem Eispalast




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash