- UGREEN USB C Hub 10 Gbps, 4 Port USB 3.2 Adapter mit 4 USB C 3.2 Ports, Hochgeschwindigkeits USB C Multiport Splitter für iPhone 15/15 Pro, MacBook Pro, iMac, iPad Pro, Chromebook, Galaxy S23 und mehr
- UGREEN USB C Hub 10 Gbps, 4 Port USB 3.2 Adapter mit 4 USB C 3.2 Ports, Hochgeschwindigkeits USB C Multiport Splitter für iPhone 15/15 Pro, MacBook Pro, iMac, iPad Pro, Chromebook, Galaxy S23 und mehr
Das Rode, was ich empfohlen hatte, hat 2 Eingabe-Spuren. Theoretisch könnte man jetzt noch ein Mikrophon anschließen, das wird aber nicht unterstützt. Nur 1 Eingabe-Gerät (Mikrophon).
Wozu dienen dann die vier Spuren? Kann man ein Gerät mit vier Eingabespuren anschließen?
Die Assoziation zum berüchtigten Auto-Abgastest drängt sich da auf, denn die Wirklichkeit sieht so aus:"We are getting 12 stops of dynamic range in the iPhone 15 Pro (Max) for a signal to noise ratio (SNR) of 1, and the same 12 stops for a signal to noise ratio of 2. Also for the “slope based DR”. This is a clear sign of “too much” noise processing for IMATEST to calculate a meaningful result. [...] My conclusion so far is that IMATEST mainly measures the noise reduction, and not so much the “real” dynamic range."
Wobei schon immer meine Rede war, dass es Smartphones mit (etwas) besserer Kamera-Hardware als die aktuellen iPhones gibt, und man bessere Ergebnisse mit der Android-App MotionCam und ihrer Video-Rawaufnahme erzielt. (Übrigens bietet die neueste Version der App auch ProRes-Log-Aufnahme...)Looking at the waveforms and the iPhone 15 Pro dynamic range in IMATEST, at first glance you could be tricked into believing the very high values that are displayed. In the end it turns out that those high IMATEST values are achieved with a really high internal noise reduction, confirmed by the latitude results of 5 stops (which is on the very low end in our benchmark). Recent Micro four thirds cameras like the GH6 have seven stops of exposure latitude, consumer APS-C cameras like the FUJIFILM X-H2S or the Sony A6700 have 8 stops and the leader of the pack, the ARRI Alexa 35 has 12 stops to give you the benchmark of our testing.
Nevertheless, we have to keep things in perspective – we are talking about a phone with tiny image sensors …
Ach - und du denkst wirklich, dass die knalligen Farben vor der Kamera entstanden?Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 08:33 Ein weiteres Beispiel dafür, daß die Kamera kaum ne Rolle spielt, sondern nur der Aufwand den man vor der Kamera betreibt.
Wie die Farben am Set waren, und welcher enorme Aufwand dazu nötig war, sieht man im Making Off, da brauchst du gar nicht spekulieren.
Seh ich auch so.Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 08:33 Ein weiteres Beispiel dafür, daß die Kamera kaum ne Rolle spielt, sondern nur der Aufwand den man vor der Kamera betreibt.
Tja - dann spielt sich wohl doch nicht alles vor der Kamera ab.Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 08:48Wie die Farben am Set waren, und welcher enorme Aufwand dazu nötig war, sieht man im Making Off, da brauchst du gar nicht spekulieren.
Und daß es sowas wie Color Grading gibt, ist jetzt auch nicht wirklich was neues.
iasi hat geschrieben: ↑Mi 06 Mär, 2024 10:31
Tja - dann spielt sich wohl doch nicht alles vor der Kamera ab.
Zumal man im Making Off eher sieht, wie die Kamera eingesetzt wurde, um Bilder zu erzeugen, die eine Geschichte erzählen und Wirkung erzeugen.
Es ist eben gerade nicht nur das "was" man filmt, sondern "wie" man es filmt.
Und du begreifst einfach nicht, dass man all das in sehr unterschiedlicher Weise mit einer Kamera aufnehmen kann.Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 11:00Hab ich jemals behauptet der finale Look würde in der Kamera entstehen?iasi hat geschrieben: ↑Mi 06 Mär, 2024 10:31
Tja - dann spielt sich wohl doch nicht alles vor der Kamera ab.
Zumal man im Making Off eher sieht, wie die Kamera eingesetzt wurde, um Bilder zu erzeugen, die eine Geschichte erzählen und Wirkung erzeugen.
Es ist eben gerade nicht nur das "was" man filmt, sondern "wie" man es filmt.
Nein - natürlich nicht.
Was ich in Wirklichkeit seit Jahren immer wieder predige ist: Setdesign, Farbkonzept, Garderobe, Ausstattung, Location, Licht, etc. - alles was halt vor der Kamera ist.
Ich weiß nicht, warum du so was einfach nicht begreifen kannst.
Was soll denn diese ominöse "Weise" sein, die am gleichen Set angeblich zu unterschiedlichen Bildern führt?iasi hat geschrieben: ↑Mi 06 Mär, 2024 16:17
Und du begreifst einfach nicht, dass man all das in sehr unterschiedlicher Weise mit einer Kamera aufnehmen kann.
Gleiches Setdesign, Farbkonzept, Garderobe, Ausstattung, Location, Licht, etc. können sehr unterschiedliche Bildergebnisse liefern - geschweige denn Filmerlebnisse.
Was hast du (und CineD) eigentlich erwartet, wo die Dynamik herkommen soll? Oder anders gefragt, gibt es denn überhaupt einen anderen Weg als Noise Reduction mit ihren unterschiedlichen Verfahren?cantsin hat geschrieben: ↑Mo 19 Feb, 2024 01:11 CineDs DR-Test des iPhone 15 Pro lässt ebenfalls ordentlich Luft aus dem Hype:
https://www.cined.com/iphone-15-pro-lab ... -latitude/
Sie kommen zum Ergebnis, dass das Standard-Messverfahren für Dynamikumfang, IMATEST, für das iPhone (aber eigentlich auch für alle anderen heutigen Kameras) unbrauchbar ist, weil es von der massiven internen Rauschfilterung gewissermaßen reingelegt bzw. ausgetrickst wird:
Die Assoziation zum berüchtigten Auto-Abgastest drängt sich da auf, denn die Wirklichkeit sieht so aus:"We are getting 12 stops of dynamic range in the iPhone 15 Pro (Max) for a signal to noise ratio (SNR) of 1, and the same 12 stops for a signal to noise ratio of 2. Also for the “slope based DR”. This is a clear sign of “too much” noise processing for IMATEST to calculate a meaningful result. [...] My conclusion so far is that IMATEST mainly measures the noise reduction, and not so much the “real” dynamic range."
Wobei schon immer meine Rede war, dass es Smartphones mit (etwas) besserer Kamera-Hardware als die aktuellen iPhones gibt, und man bessere Ergebnisse mit der Android-App MotionCam und ihrer Video-Rawaufnahme erzielt. (Übrigens bietet die neueste Version der App auch ProRes-Log-Aufnahme...)Looking at the waveforms and the iPhone 15 Pro dynamic range in IMATEST, at first glance you could be tricked into believing the very high values that are displayed. In the end it turns out that those high IMATEST values are achieved with a really high internal noise reduction, confirmed by the latitude results of 5 stops (which is on the very low end in our benchmark). Recent Micro four thirds cameras like the GH6 have seven stops of exposure latitude, consumer APS-C cameras like the FUJIFILM X-H2S or the Sony A6700 have 8 stops and the leader of the pack, the ARRI Alexa 35 has 12 stops to give you the benchmark of our testing.
Nevertheless, we have to keep things in perspective – we are talking about a phone with tiny image sensors …
Aha. Dann könnte man also eine Kamera hinstellen und die ganze Szene in einem Take runterfilmen. ;)Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 08:33 Ein weiteres Beispiel dafür, daß die Kamera kaum ne Rolle spielt, sondern nur der Aufwand den man vor der Kamera betreibt.
Blah blah ..iasi hat geschrieben: ↑Mi 06 Mär, 2024 17:07
Aha. Dann könnte man also eine Kamera hinstellen und die ganze Szene in einem Take runterfilmen. ;)
Wenn man dich so hört, würde es dabei auch eine GoPro tun.
Erstaunlich, dass du scheinbar nicht mal verstehst, was in dem Video über ein einziges filmsprachliches Mittel gesagt wird.
Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 17:00Was soll denn diese ominöse "Weise" sein, die am gleichen Set angeblich zu unterschiedlichen Bildern führt?iasi hat geschrieben: ↑Mi 06 Mär, 2024 16:17
Und du begreifst einfach nicht, dass man all das in sehr unterschiedlicher Weise mit einer Kamera aufnehmen kann.
Gleiches Setdesign, Farbkonzept, Garderobe, Ausstattung, Location, Licht, etc. können sehr unterschiedliche Bildergebnisse liefern - geschweige denn Filmerlebnisse.
Schau dir mal das Video intensiv an.Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 18:24Blah blah ..iasi hat geschrieben: ↑Mi 06 Mär, 2024 17:07
Aha. Dann könnte man also eine Kamera hinstellen und die ganze Szene in einem Take runterfilmen. ;)
Wenn man dich so hört, würde es dabei auch eine GoPro tun.
Erstaunlich, dass du scheinbar nicht mal verstehst, was in dem Video über ein einziges filmsprachliches Mittel gesagt wird.
Ich warte immer noch auf die Beantwortung obiger Frage:
Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 17:00
Was soll denn diese ominöse "Weise" sein, die am gleichen Set angeblich zu unterschiedlichen Bildern führt?
Was du nicht sagst - noch binsenweiser geht's nicht mehr?
Wie wird sie denn in Wirklichkeit eingesetzt?
Nein, der alte Adams hat nix mit Kamerabewegung un Framing zu tun, und sein Zone System erst recht nicht - das ist sowieso völlig trivial und belanglos. Und komm uns jetzt bitte nicht mit Lachman.
Ist natürlich auch wieder Quatsch. Natürlich kann man auch bei dem DR eines Handys verhindern, daß die Lichter ausbrennen. Ist nur ne Frage der Ratios - also wieder mal Arbeit vor der Kamera.
Wenn es so trivial ist, weshalb kannst du dann Kamerabewegung, Framing, Montage und Bildgestaltung durch Belichtung und Post nicht auseinanderhalten?Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 19:01Was du nicht sagst - noch binsenweiser geht's nicht mehr?
Wie wird sie denn in Wirklichkeit eingesetzt?
Zum größten Teil ganz klassisch auf einem Stativ, montiert an irgendwelchen Fahrzeugen, Dolly, ein Bisschen Handheld, und natürlich der berühmte iasi Schuß aus dem Fußraum (Handschufach haben sie allerdings gelassen).
Insgesamt also alles ganz klassische, konservative Hollywood Arbeit, nichts außergewöhnliches dabei.
Nein, der alte Adams hat nix mit Kamerabewegung un Framing zu tun, und sein Zone System erst recht nicht - das ist sowieso völlig trivial und belanglos. Und komm uns jetzt bitte nicht mit Lachman.
Ach - nun spielt die Kamera doch eine Rolle und es spielt sich nicht alles vor der Kamera ab. ;)Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 19:01Ist natürlich auch wieder Quatsch. Natürlich kann man auch bei dem DR eines Handys verhindern, daß die Lichter ausbrennen. Ist nur ne Frage der Ratios - also wieder mal Arbeit vor der Kamera.
WTF? Was ist denn das für ein Satz?
Was ist los mit dir? Ich hab doch eben gesagt:
Frank Glencairn hat geschrieben: ↑Mi 06 Mär, 2024 19:01
Natürlich kann man auch bei dem DR eines Handys verhindern, daß die Lichter ausbrennen. Ist nur ne Frage der Ratios - also wieder mal Arbeit vor der Kamera.
Wie soll das funktionieren, wie wird das technisch realisiert?Jott hat geschrieben: ↑Do 07 Mär, 2024 09:05 ...H.265 onboard reicht völlig. Kinomodus und fertig.
Dass man mit fcp Zugriff auf die Lidar-Daten hat - also direkt in der Timeline die Schärfeebene und auch die Tiefenschärfe nachträglich einstellen und auch animieren kann (Follow Focus) - ist sehr sehr cool. ...
…da muss ich Dir widersprechen. Es reicht nicht bzw. ist wie so oft zu pauschal formuliert. Der Kinomodus ist kein Allheilmittel, wenn der Propeller des Flugzeuges als Bumerang durchs Bild stottert - weil der ND-Filter fehlt. Und H.265 onboard mag in sich betrachtet gut ausschauen, vergleichst du das aber -und erst recht wenn der Shutter jenseits der 1000 ist - mit ProRes, dann werden die Karten neu gemischt, sieht alles ziemlich überschärft aus, lässt sich das nur suboptimal mit Material aus „Filmkameras“ mixen. Ich möchte auch keine theoretische Diskussion wieder daraus werden lassen. Ich bin ein Filmer aus der „Praxis“, es sind meine Erfahrungen und die sind beim Iphone wie auch bei allen Actionkameras nie über den Zustand der Zwiespältigkeit hinausgekommen….