Frage von r.p.television:Hallo Slashcam-Gemeinde.
Mein gutes altes Huawei P30 Pro beginnt nach 5 Jahren langsam immer mehr zu spinnen und es bedarf eines neuen Smartphones.
Aufgrund meiner Erfahrung wäre es gut, wirklich gut zu investieren, für ein Handy, mit dem man - schnell aus der Tasche gezogen weil immer am Mann - gutes Behind-the-Scenes-Material drehen kann. Speziell auch im Bereich eines Abenteuerformates, wo man nicht immer eine gute Kamera griffbereit hat.
Zur Auswahl standen bzw stehen: Samsung S24 Ultra, Xiaomi 14 Ultra oder das iPhone 15 Pro Max.
Glaubt man diversen YT-Testern, landet immer wieder das iPhone 15 Pro Max bezüglich Videoperformance auf Nummer 1. Betrachtet man vorallem die Möglichkeit, dass es hier die Blackmagic App gibt, wird das auch stimmen. Andererseits soll das Smartphone ja nicht meine Kamera Nummer 1 sein, sondern wirklich die C-Kamera, falls eine FX9/Burano/A7siii oder auch ein Pocket 3 nicht am Mann sind. Dann sollte es sehr schnell in den Default-Settings brauchbare Aufnahmen machen. Da ich keine Wollmütze trage und mein Computer über eine performante Grafikkarte verfügt, würde ich ungerne meinen Flashspeicher mit Prores 422 HQ vollmüllen. Weiss jemand zuverlässig, ob man in der Blackmagic App auch bei H.265 ein 10bit LOG aufnehmen kann? Alle Youtube-Tester klicken als Beispiel immer ProRes an und dort ist logischerweise 10bit und Log am Start. Also das Iphone ist nur wegen der Blackmagic App im Rennen. Ansonsten will ich eigentlich bei Android bleiben, weil ich einige spezielle Apps habe, die es teils für IOS nicht gibt. Was gegen das iPhone spricht, ist die starke Anfälligkeit für das Lens-Flare-Ghosting bei Lowlight. Und die Standard-Setting vom iPhone sehen teilweise aus, als hätten die Leute in Kaktus-Peeling bekommen. Weiss nicht wie man sowas schön finden kann.
Das Samsung S24 ist in vielen Belangen besser als das iPhone 15 Pro Max. Besseres, auch kratzfesteres Display, besserer Akku, die AI-Funktionen in der Live-Übersetzung können durchaus für mich nützlich sein. Und bei den ganzen Youtube-Vergleichen gefällt mir das Footage der S24 Ultra in der Regel besser. Klar kann man mit dem iPhone alles in LOG filmen, aber solange die Frage noch im Raum steht, ob das nur mit einem veralteten DCT-Codec geht, der rasend schnell den Speicher vollschreibt, ist das iPhone keine sichere Option. Wenn man diversen Screenshots von Mediainfo glauben darf, macht auch das S24 Ultra 10bit 422 Files. Allerdings nicht in LOG. Da aber das Standard-Video bereits deutlich flacher ist, als das sehr kontraststarke iPhone-Material, kann man mit dem 10bit auch einiges machen.
Ursprünglich war vorallem das Xiaomi 14 Ultra im Rennen. Aber nachdem es einige Bugs hat und es sehr intransparent ist, wann man nun in 10bit aufnimmt und wann nicht und der 1"-Sensor bei Lowlight null sichtbare Vorteile bringt, ist es eigentlich schon wieder aus dem Rennen.
Fazit: Abseits von LOG macht das S24 nach meinem Geschmack die schöneren Aufnahmen und der Rest des Handys ist für meine Ansprüche besser. Die Frage ist jetzt um wieviel besser das iPhone in Verbindung mit der Blackmagic App ist und ob man dort auch nur mit H.265 gutes 10bit LOG OHNE VIEL GEFUMMEL auf den Flashspeicher kriegt. Vorallem dann auch mit Automatikbelichtung, weil ich dann eine Kamera brauche, die schnell einsetzbar ist.
Antwort von Onkel Danny:
Tipp:
Nimm ein Android, wie z.B. das Samsung und hol dir dazu die App MotionCam Pro.
Dann hast du alle möglichen Log flavers(h.264, h.265, prores) und raw dazu.
Da kann das iphone samt bm App einpacken.
greetz
Antwort von Jott:
Beim iPhone musst du den Kinomodus nehmen, dann sind die zu hohen Kontraste reduziert. Alles weicher.
Und da es viele nicht wissen, schreib ich’s mal hin: die Tiefenschärfe (simulierte Blendenwerte) und den Schärfepunkt kann man im Schnitt setzen/versetzen und auch animieren. Follow Focus in der Post. Hat was.
Bei Interesse kann ich anraten, mal testweise damit zu spielen.
Antwort von r.p.television:
"Onkel Danny" hat geschrieben:
Tipp:
Nimm ein Android, wie z.B. das Samsung und hol dir dazu die App MotionCam Pro.
Dann hast du alle möglichen Log flavers(h.264, h.265, prores) und raw dazu.
Da kann das iphone samt bm App einpacken.
greetz
Das klingt sehr interessant und ist bisher an mir vorbeigegangen. Hab nur mal eine Demo dieser App gesehen, aber da kam es so rüber, als könnte man damit nur CDNG aufnehmen, was noch um ein vielfaches bescheuerter wäre als ProRes 422 HQ. Zumindest für meine Zwecke. Werd ich mir mal ansehen. Vielen Dank.
Antwort von r.p.television:
Also nochmal zur Motioncam Pro App:
Insoweit ist das alles schon sehr cool. Also grade der Modus Raw to LOG on the Fly. ABER: Die Stabilisierung der Kamera wird dabei komplett umgangen, was heisst, man hat ein völlig verwackeltes Bild und es ist mehr als fraglich, ob man mit einem Post-Stabi ein ähnlich gutes Ergebnis bekommt wie mit dem Onboard-Stabi, der vermutlich auch mit den Gyrodaten arbeitet.
Antwort von r.p.television:
Jott hat geschrieben:
Beim iPhone musst du den Kinomodus nehmen, dann sind die zu hohen Kontraste reduziert. Alles weicher.
Und da es viele nicht wissen, schreib ich’s mal hin: die Tiefenschärfe (simulierte Blendenwerte) und den Schärfepunkt kann man im Schnitt setzen/versetzen und auch animieren. Follow Focus in der Post. Hat was.
Bei Interesse kann ich anraten, mal testweise damit zu spielen.
Das Focus-Ramping in der Post geht aber wohl nur in Final Cut, oder?
Antwort von cantsin:
r.p.television hat geschrieben:
Insoweit ist das alles schon sehr cool. Also grade der Modus Raw to LOG on the Fly. ABER: Die Stabilisierung der Kamera wird dabei komplett umgangen, was heisst, man hat ein völlig verwackeltes Bild und es ist mehr als fraglich, ob man mit einem Post-Stabi ein ähnlich gutes Ergebnis bekommt wie mit dem Onboard-Stabi, der vermutlich auch mit den Gyrodaten arbeitet.
Hmm, der Stabi lässt sich doch in Motioncam problemlos aktivieren:
share_4650689852314881711.png
Eine 10bit-Log-Implementierung ist seit kurzem in der App verfügbar, früher gab es tatsächlich nur CinemaDNG. Im Gegensatz zum iPhone ist das Motioncam-Material nur minimal prozessiert und daher - abhängig natürlich von der jeweiligen Kamerahardware - IMHO bildqualitativ besser.
Antwort von r.p.television:
cantsin hat geschrieben:
r.p.television hat geschrieben:
Insoweit ist das alles schon sehr cool. Also grade der Modus Raw to LOG on the Fly. ABER: Die Stabilisierung der Kamera wird dabei komplett umgangen, was heisst, man hat ein völlig verwackeltes Bild und es ist mehr als fraglich, ob man mit einem Post-Stabi ein ähnlich gutes Ergebnis bekommt wie mit dem Onboard-Stabi, der vermutlich auch mit den Gyrodaten arbeitet.
Hmm, der Stabi lässt sich doch in Motioncam problemlos aktivieren:
Ich hab nur einige Testclips auf YT gesehen, die im Vergleich zum nativen Videomaterial sehr shaky waren mit dem Vermerkt, dass die OIS via App nicht funktioniert. Oder ist das nur weil hier zusätzlich die ELEKTRONISCHE Stabilisierung nicht am Werkeln ist? Oder ist die Funktion neu? Leider ist sehr vieles intransparent.
Ist der Screenshot von Dir? Wenn ja funktioniert dann der OIS wie bei der Onboard-Kamera? Und welches Handy benutzt Du? Hab bezüglich Filmic Pro beispielsweise gelesen, dass dort grade diverse Bugs mit Samsung aufreten. Also was die Auswahl an Linsen betrifft etc.
Antwort von cantsin:
r.p.television hat geschrieben:
Ich hab nur einige Testclips auf YT gesehen, die im Vergleich zum nativen Videomaterial sehr shaky waren mit dem Vermerkt, dass die OIS via App nicht funktioniert. Oder ist das nur weil hier zusätzlich die ELEKTRONISCHE Stabilisierung nicht am Werkeln ist? Oder ist die Funktion neu? Leider ist sehr vieles intransparent.
OIS funktionierte schon immer, aber natürlich gibt es keine elektronische Stabilisierung, da das Bild ja praktisch unprozessiert ist (ähnlich wie bei einer Blackmagic-Kamera).
Ist der Screenshot von Dir? Wenn ja funktioniert dann der OIS wie bei der Onboard-Kamera? Und welches Handy benutzt Du?
Ja, ja, Google Pixel 6 Pro.
Antwort von Alex:
Habs eben mit dem Google Pixel 7 Pro (sehr geile Kamera) und Motioncam getestet, Stabi kann man einschalten und auch noch Gyro-Daten aktivieren.
1.jpg
2.jpg
https://www.youtube.com/watch?v=O5ODCI1bfdc
Antwort von Jott:
r.p.television hat geschrieben:
Das Focus-Ramping in der Post geht aber wohl nur in Final Cut, oder?
Soweit ich weiß, ja.
Antwort von Jott:
Was ist nicht weiß: ob da schon mal jemand rumgehackt hat. Der "Tiefenscan", den das iPhone mit aufnimmt, ist ein getrenntes Sidecar-File, also zugänglich und nicht irgendwo im Videofile versteckt.
Wär doch mal was für Nerds, die Nummer auch außerhalb von fcp nutzbar zu machen, falls möglich.
Antwort von Frank Glencairn:
Sowas? https://developer.apple.com/documentati ... pth_camera
Antwort von Axel:
Jott hat geschrieben:
r.p.television hat geschrieben:
Das Focus-Ramping in der Post geht aber wohl nur in Final Cut, oder?
Soweit ich weiß, ja.
Resolve 19 kann‘s in der Mac-Version (und gewiss auch in der kommenden iPad-Version, in der dann wahrscheinlich auch EDIT freigeschaltet sein wird:
zum Bild
Antwort von Frank Glencairn:
Für BTS wäre das hier womöglich ne Alternative: