Ich kann es mir nur schwer vorstellen, daß man mit Z8 und Co. filmt.
ColorScience.
Ist schon klar, daß CM da eine Colorsciene eines anderen Herstellers simuliert.roki100 hat geschrieben: ↑Mo 21 Okt, 2024 22:52
ColorScience.
Es ist nicht sofort alles identisch, nachdem man Kameras (Source, Target) ausgewählt hat. Bei mir passen z.B. die Hauttöne nicht - aber dafür ist der intelligente Color-Picker (mit Target und Source Funktion) dabei. Und Midtone passt auch nicht (ca. +30% vorher auf extra Node für VLOG Material) Damit kann man es so identisch machen, dass man nichts mehr erkennt.
Bei Cinematch ist auch "DaVinci Wide Gamut" dazu gekommen.Bildlauf hat geschrieben: ↑Mo 21 Okt, 2024 23:03Ist schon klar, daß CM da eine Colorsciene eines anderen Herstellers simuliert.roki100 hat geschrieben: ↑Mo 21 Okt, 2024 22:52
ColorScience.
Es ist nicht sofort alles identisch, nachdem man Kameras (Source, Target) ausgewählt hat. Bei mir passen z.B. die Hauttöne nicht - aber dafür ist der intelligente Color-Picker (mit Target und Source Funktion) dabei. Und Midtone passt auch nicht (ca. +30% vorher auf extra Node für VLOG Material) Damit kann man es so identisch machen, dass man nichts mehr erkennt.
Aber es ist halt doch eine Lut letztendlich, wenn auch eine spezialisierte.
Die anderen Aspekte wie Rauschverhalten, processing einer Kamera, raw codec werden nicht angepasst.
Das ist halt meine Frage.
Warum ist dies schwer vorstellbar?
Was AI betrifft sind wir eigentlich schon viel weiter als nur Kamera Matching.Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 06:56 Inzwischen gibt es auch AI matching ..;)
https://www.filmatic.ai/
Ich denke das wird was solche Tools betrifft doch eh die Zukunft sein..
roki100 hat geschrieben: ↑Di 22 Okt, 2024 00:01
Nur die ColorScience wird angepasst, und es stehen andere nützliche Werkzeuge zur Verfügung, wie der intelligente Color-Picker sowie RAW-ähnliche Regler für WB/ColorTemp und Tint, Exposure... Die ARRI-Textur wird dabei nicht übernommen, aber die matrix(?) das etwas grünliche im Bild was mir persönlich bei Alexa gefällt, wird übernommen.
Um die Textur ungefähr anzupassen, nutze ich FilmConvert (das von denselben Entwicklern stammt) für Film Grain (was auch gut mit Dehancer funktioniert). Ich finde FilmConvert besonders nützlich, da es einen "Image Sofness"-Regler hat, mit dem ich diese Superschärfe eliminieren kann, während sich das Rauschen entsprechend anpasst. Letztendlich muss das nicht exakt aussehn, aber man bekommt es in etwa hin.
Was ich aber erfahren habe ist, dass ARRI-Texturen nicht nur aus Noise bestehen; der Composite Mode z.B. ist ein wichtiger Faktor. Es wäre cool, wenn CineMatch diese Funktionalität auch einbauen würde - ich habe deswegen schon einmal nachgefragt (die brauchen aber sehr lange...selbst für CineMatch haben die sehr gebracht...oder für FilmConvert add-on "Halation" - nur dafür haben die 5 Jahre oder so gebraucht). Bisher klappt es aber wunderbar mit FilmConvert.
Bei Creator soll es Probleme gegeben haben mit der FX3.
Ne, nicht nur ich... ;)
Es ist ja nicht so, dass sie es nicht geschafft haben oder das Ergebnis schlecht ist. Hätten sie es nicht bekannt gemacht, würdest du nicht wissen, dass es eine FX3+NinjaV war.Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 11:08 @roki
da oben im Interwiew erklären die doch ganz klar das der Rest eben grosse Probleme darstellen wenn man dslms als ACameras fürs grosse Kino nutzt. Punkt für Punkt.
Ich dachte, sie hätten vieles getestet....und nicht 3 Stunden am Stück gefilmt?Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 11:39 Was nützt dann das tolle Bild dem Film wenn die Fx 3 nach 3 Std wenn man pech hat zu heiss kriegt und tote Pixel und Rauschen produziert ?
Nix.
Arri bedient das High-End-Segment und somit die Produktionen, bei denen aufgrund hoher Budgets, eine Arri einen rentablen Produktionsablauf verspricht.Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 10:44 Das glaubt nur der roki ;)
Wenn das wirklich so sein würde ja dann wäre die Firma Arri pleite.
Und in Hollywood würden die alle mit dslms drehen.
Tun die aber nicht.
Gruss Boris
Weiß ich auch nicht, ich fand den Film sehr gut.Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 12:19 Ob daran die Kamera schuld ist ?
keine Ahnung.
Bei Creator wurde die FX3 nicht gewählt, weil sie viel weniger kostet, als eine Alexa.Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 11:39 Die Bildqualität ist aber bei so grossen Produktionen halt leider noch lange nicht das einzige was Relevant ist an einer Kamera.
Wird bei solchen Vergleichen sehr gerne einfach ignoriert.
zb:
Was nützt dann das tolle Bild dem Film wenn die Fx 3 nach 3 Std wenn man pech hat zu heiss kriegt und tote Pixel und Rauschen produziert ?
Nix.
Gruss Boris
Ja - Oppenheimer fand ich auch langweilig. ;)Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 12:29 Ich fand den Film langweilig. Die ILM Effekte waren aber toll.
Sicher nicht.Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 12:32 @iasi
Und das am Dreh gesparte Geld hstten sie dann in Post wegen der FX3 ausgeben.
Wo genau steht das? Meinst Du das (übersetzt)?Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 13:06 Aber eins ist klar,
wenn Firmen wie ILM erst mal tagelang Matetial sichten und suchen müssen weil der Timecode/Daten Mangment fehlt oder nicht stimmt. Dann wird es schnell unnötigerweise sehr viel teurer.
Sie haben im Vorfeld alles getestet, um sicherzustellen, dass die Kameras und das gesamte Setup wie geplant funktionieren. Dabei sind Probleme aufgetreten, wie etwa die Überschneidung der Dateien bei 23.98 FPS. Diese Probleme mussten dann gründlich analysiert und schrittweise gelöst werden, um sicherzustellen, dass während des eigentlichen Drehs alles reibungslos abläuft. Die Tests und Vorbereitungen dienten also dazu, mögliche Fehlerquellen frühzeitig zu erkennen und Lösungen zu finden. Letztendlich haben sie es gut hinbekommen.Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 13:24 kann man sich denken wenn man 2und2 zusammenzählen kann, das Interwiew liest und das gelesene richtig interpretiert und versteht.
Warum sollten wir das denn nicht wissen?Darth Schneider hat geschrieben: ↑Di 22 Okt, 2024 13:06 @iasi
Das wissen wir beide gar nicht.
Was genau wie viel gekostet hat,
das Interwiew da oben sagt schon einiges aus.
Aber eins ist klar,
wenn Firmen wie ILM erst mal tagelang Matetial sichten und suchen müssen weil der Timecode/Daten Mangment fehlt oder nicht stimmt. Dann wird es schnell unnötigerweise sehr viel teurer.
Gruss Boris
Allerdings haben die bei Creator höchstens f4 und offener gedreht.