Newsmeldung von slashCAM:
Wir hatten das iPhone 17 Pro Max bei uns im Sensortest. Und auch wenn sich bei der Signalverarbeitung grundsätzlich wenig Neues getan hat, überraschten uns die Ergebnisse mit ProRes RAW dann doch...
Hier geht es zum slashCAM Artikel:
Test: iPhone 17 Pro Max mit ProRes RAW - Rolling Shutter und Dynamik Sensortest
Antwort von roki100:
Das ist tatsächlich ziemlich sensationell. Das iPhone unterstützt nun RAW-Videoaufnahme, ein Feature das bislang fast nur bei professionellen Kameras zu finden war.
Antwort von Darth Schneider:
Das war absehbar, schon von dem Moment an als Apple ProRes in die iPhones gepackt hatte , das ProRes Raw auch kommen musste. Jedenfalls viel zu speicherhingrig für ein iPhone….
Antwort von Bruno Peter:
Aus dem Aliasing Read-Out wir eine cinematisch anmutende Meister Klexel Fläche...
Antwort von iasi:
Verstehe ich das richtig:
Ein 1:1 Readout von einem kleinen 48MPixel-Sensor hinter Smartphone-Linsen und dann auch noch starkes NR?
Und das dann auch noch in 4,2k-Bayer-Auflösung?
Der NR wird es bei solch einer weichen Vorlage leicht fallen, das Rauschen zu erkennen und zuzuschmieren.
Ein weiches Standbild erzeugt jedoch noch nicht "eine eher gefällige cinematische Anmutung", sondern nur ein Bild ohne Detailwiedergabe. Beim Negativ erzeugt der in der Projektionsabfolge Fluß der Kornstruktur eine weiche Anmutung ohne dabei Details zu verlieren.
Auch das iPhone 17 Pro hat nur eine ziemlich simple und kleine Optik vor dem kleinen Sensor. Und ein Abblenden ist immer noch nicht möglich. Die Abbildungsleistung ist dann entsprechend.
Antwort von Darth Schneider:
@ iasi
Viele empfinden halt zu viele Details eher als Videolook und weicher mit etwas weniger Details eher als Filmlook…Eine echte Kornstruktur gibt es in digitalen Bildern zudem nicht….
Antwort von Bruno Peter:
iasi hat geschrieben:
Ein weiches Standbild erzeugt jedoch noch nicht "eine eher gefällige cinematische Anmutung", sondern nur ein Bild ohne Detailwiedergabe.
Sehe ich auch so.
Antwort von Schwermetall:
Das iPhone ist ja ein sehr schönes Smartphone, aber irgendwie bekomme ich den Eindruck das es hier nur Apple Produkte gibt.
RAW Videoaufnahme mit dem Smartphone gibt es doch nun wirklich seit vielen Jahren.
Zumindest unter Android.
Ich weiß das Apple sehr gut ist und der Workflow bestimmt viel ausgereifter ist,
aber der Smartphone-Kosmos hat wirklich noch etwas mehr.
Antwort von DeeZiD:
Schön und gut, dass die grässliche Nachschärfung des iPhone 16 Pro weg ist, aber was soll die ganze temporale Filterung?
Antwort von DeeZiD:
Schwermetall hat geschrieben:
Das iPhone ist ja ein sehr schönes Smartphone, aber irgendwie bekomme ich den Eindruck das es hier nur Apple Produkte gibt.
RAW Videoaufnahme mit dem Smartphone gibt es doch nun wirklich seit vielen Jahren.
Zumindest unter Android.
Ich weiß das Apple sehr gut ist und der Workflow bestimmt viel ausgereifter ist,
aber der Smartphone-Kosmos hat wirklich noch etwas mehr.
Unter Android (motioncam pro) bekommt man immerhin echtes RAW, ganz im Gegensatz zu was Apple da abliefert...
Antwort von Jott:
Das Übliche: iPhones sind Kacke.
Trotzdem drehen Leute Spielfilme damit:
„28 Years Later grossed over $150 million worldwide against a $60 million budget, making it a box office success and the highest-grossing film in the franchise.“
Forentalk vs Realität.
Antwort von DeeZiD:
Jott hat geschrieben:
Das Übliche: iPhones sind Kacke.
Trotzdem drehen Leute Spielfilme damit:
„28 Years Later grossed over $150 million worldwide against a $60 million budget, making it a box office success and the highest-grossing film in the franchise.“
Forentalk vs Realität.
Heißt nicht, dass die Filme gut aussehen. Sieht halt nach Video aus, was manchen gefällft. Ich persönlich finde das Bild hochwertiger Kameras ohne billig-wirkendem Processing wie das der Arri Alexa oder gar analogem Film halt deutlich schöner und immersiver.
Antwort von Darth Schneider:
@Jott
Aber nicht einfach mit einem iPhone…
Mit 20 iPhones zusammen auf Spezial Rigs/grossem Kran, mit wahrscheinlich 20 teuren Objektiven drauf…;))
https://www.motionpictures.org/2025/06/ ... ic-vision/
Antwort von Ingole:
iasi hat geschrieben:
…
Auch das iPhone 17 Pro hat nur eine ziemlich simple und kleine Optik vor dem kleinen Sensor. Und ein Abblenden ist immer noch nicht möglich. …
Abblenden wird auch in Zukunft wegen der Beugungsunschärfe nicht sinnvoll sein – ist nicht mangelnder Wille sonder Physik die dem Entgegen steht.
Antwort von Jott:
"Darth Schneider" hat geschrieben:
@Jott
Aber nicht einfach mit einem iPhone…
Mit 20 iPhones zusammen auf Spezial Rigs/grossem Kran, mit wahrscheinlich 20 teuren Objektiven drauf…;))
https://www.motionpictures.org/2025/06/ ... ic-vision/
Betrifft nicht das, was oben behauptet/kritisiert wurde. Geht ja trotzdem alles durch die Optiken und den Sensor des iPhones.
Antwort von cantsin:
Ingole hat geschrieben:
iasi hat geschrieben:
…
Auch das iPhone 17 Pro hat nur eine ziemlich simple und kleine Optik vor dem kleinen Sensor. Und ein Abblenden ist immer noch nicht möglich. …
Abblenden wird auch in Zukunft wegen der Beugungsunschärfe nicht sinnvoll sein – ist nicht mangelnder Wille sonder Physik die dem Entgegen steht.
Bei knapp 1"-Sensorgröße des aktuellen iPhone: wohl kaum...
Antwort von Jott:
Müßiger Murmeltiertag-Thread.
Antwort von Darth Schneider:
Die Smartphones mit kleinen Sensoren, (nun sogar auch die iPhones), können heute auch mit teuren Raw (Film) Kameras durchaus mithalten…
Wie geht es eurer Meinung nach in der ganzen Kamera Industrie weiter ?
Antwort von Ingole:
cantsin hat geschrieben:
Ingole hat geschrieben:
Abblenden wird auch in Zukunft wegen der Beugungsunschärfe nicht sinnvoll sein – ist nicht mangelnder Wille sonder Physik die dem Entgegen steht.
Bei knapp 1"-Sensorgröße des aktuellen iPhone: wohl kaum...
Die Pixeldichte spielt dabei auch eine Rolle.
Antwort von Darth Schneider:
Zusammen mit der AI spielt die Pixeldichte, die Sensorgrösse und auch der angestrebte Filmlook bald überhaupt gar keine Rolle mehr.
Physik hin oder her.
Nur meine 2 Cents.
Antwort von Jott:
„ Wie geht es eurer Meinung nach in der ganzen Kamera Industrie weiter?“
Nicht anders als bisher. Die Filmkunst passiert immer nur vor (Set) und hinter der Kamera (DoP). Welche das ist, spielt spätestens in 2025 keine Rolle mehr. Eigentlich schon länger.
Am Rande: wer großartige Filmkunst sehen will, bitte del Toros Frankenstein auf Netflix gucken. Auch wenn das Thema nicht interessiert. Jedes Bild, jede Szene ist ein Gemälde. Unfassbar gut. Das Licht!
Antwort von Darth Schneider:
@Jott
Schon klar.
War aber meinerseits nur auf die kommende Kamera Technik zusammen mit der AI bezogen.
Gar nicht nicht aufs Know How.
Und klar für mich ist, es wird betreffend Know How schon ganz anders werden.
Wenn dann die AI das Colorgrading übernehmen kann und das dazu noch sehr gut ausschauen wird.
Was nur noch eine Frage der Zeit ist.
Antwort von Jott:
So lange man's auf Wunsch abschalten kann, spricht ja wohl nichts gegen KI-optimierte Aufnahmen?
Antwort von Jott:
DeeZiD hat geschrieben:
Jott hat geschrieben:
Das Übliche: iPhones sind Kacke.
Trotzdem drehen Leute Spielfilme damit:
„28 Years Later grossed over $150 million worldwide against a $60 million budget, making it a box office success and the highest-grossing film in the franchise.“
Forentalk vs Realität.
Heißt nicht, dass die Filme gut aussehen. Sieht halt nach Video aus, was manchen gefällft. Ich persönlich finde das Bild hochwertiger Kameras ohne billig-wirkendem Processing wie das der Arri Alexa oder gar analogem Film halt deutlich schöner und immersiver.
Und du bist dir sicher, du hättest bei 28 Years im Kino sofort „iPhone!!!“ gerufen, wenn die Macher die Klappe gehalten hätten? Wirklich?
Antwort von DeeZiD:
Jott hat geschrieben:
DeeZiD hat geschrieben:
Heißt nicht, dass die Filme gut aussehen. Sieht halt nach Video aus, was manchen gefällft. Ich persönlich finde das Bild hochwertiger Kameras ohne billig-wirkendem Processing wie das der Arri Alexa oder gar analogem Film halt deutlich schöner und immersiver.
Und du bist dir sicher, du hättest bei 28 Years im Kino sofort „iPhone!!!“ gerufen, wenn die Macher die Klappe gehalten hätten? Wirklich?
Schon deutlich früher bei Veröffentlichung des Trailers.
Sieht halt furchtbar in meinen Augen aus. Wenn es dir gefällt, dann ist doch alles ok?
Antwort von Optiker:
Jott hat geschrieben:
Am Rande: wer großartige Filmkunst sehen will, bitte del Toros Frankenstein auf Netflix gucken. Auch wenn das Thema nicht interessiert. Jedes Bild, jede Szene ist ein Gemälde. Unfassbar gut. Das Licht!
Ich habe mir jetzt einige Trailer angesehen und konnte so gut wie keine Einstellung sehen die nicht sofort erkennbar durch aufwendigstes CGI gelaufen wäre. Diese Bilder entehen eben zu 95% im 3D Programm mit offensichtlich vorgefertigten Modulen. Wenn hoch ästhetisiertes 3D auf Realität macht finde ich das langweilig und das Licht auch dazu... Ich habe so ein Gefühl bei diesen Bildern als kämen sie von einem Computerspiel das großer und noch größerer Hochglanz-Film sein will. Für mich zählt dieses Prdukt eigentlich nicht zum Genre Film sondern zum Kitsch.
Antwort von Jott:
Wenn du schon beim Trailer „iPhone!!!“ gerufen hast, ist ja auch alles okay! :-)
Antwort von Jott:
Optiker hat geschrieben:
Jott hat geschrieben:
Am Rande: wer großartige Filmkunst sehen will, bitte del Toros Frankenstein auf Netflix gucken. Auch wenn das Thema nicht interessiert. Jedes Bild, jede Szene ist ein Gemälde. Unfassbar gut. Das Licht!
Ich habe mir jetzt einige Trailer angesehen und konnte so gut wie keine Einstellung sehen die nicht sofort erkennbar durch aufwendigstes CGI gelaufen wäre. Diese Bilder entehen eben zu 95% im 3D Programm mit offensichtlich vorgefertigten Modulen. Wenn hoch ästhetisiertes 3D auf Realität macht finde ich das langweilig und das Licht auch dazu... Ich habe so ein Gefühl bei diesen Bildern als kämen sie von einem Computerspiel das großer und noch größerer Hochglanz-Film sein will. Für mich zählt dieses Prdukt eigentlich nicht zum Genre Film sondern zum Kitsch.
BTS-Einblicke zeigen das anders, aber hey, du weißt Bescheid. Das Schiff im Packeis wurde real gebaut. Zum Beispiel.
Und das durchaus real gebaute Labor:
Antwort von Axel:
Zu der Murmeltierdebatte über die Überlegenheit eines iPhones gegenüber Red und Arri: Quatsch. Noch immer gefallen mir die voll kontrollierten Bilder meiner A7Siii, mit großen Objektiven und ausgefuchster Hardware-Bedienung, besser. Unter guten Bedingungen sind die Aufnahmen ohne weiteres mischbar (auch farblich, durch RCM oder ACES), und es gibt zahlreiche Blindtests, die das bestätigen. Zu den „guten Bedingungen“ gehört definitiv nicht Lowlight, das ich im Sinne von Existing Light verwende. Da bezeichnen viele die iPhone-Leistung als „erstaunlich gut“, was ein Euphemismus für schlecht ist. Aber bei guten Lichtbedingungen, Apple Log und dem 24-er Objektiv kommt man wirklich ins Staunen, was da rauskommt. Und, nebenbei, noch in anderer Hinsicht ist das iPhone ein genialer Begleiter der DSLM: als 3000-nit Monitor mit Monitor+ über USB-C.
Apropos Highlight Recovery: Trotz der erstaunlichen Dynamikergebnisse greift Apple hier ebenfalls nicht (wie Nikon bei seiner ZR) auf eine Highlight Recovery zurück. Vielmehr ist davon auszugehen, dass Apple einen Trick nutzt, bei dem der Sensor mit zwei Belichtungszeiten ausgelesen und das Bild anschließend durch eine Rekombination der Frames aus zwei Belichtungen generiert wird. Ein interessantes Detail könnte dabei unsere Theorie belegen: So ermöglicht der Sensor keinen Belichtungswinkel über 180 Grad. Als keine Belichtungszeiten die kürzer sind als die halbe Framelänge der Framerate. Oder praktisch gesagt: Man kann bei 24 fps maximal mit 1/48 Sekunde belichten. Längere Zeiten bis zu 1/24s sind hier nicht möglich. Was darauf hindeuten könnte, dass Sensor bzw. die Signalelektronik an diesen Stellel mehr Zeit für die doppelte Belichtung und/oder die doppelte Verarbeitung der Bilder benötigen.
Hm, hier muss ein Fehler liegen, vielleicht nur in der Formulierung. Ich hab gerade mal das iPhone in Raw (externe SSD ist völlig banal, und es gibt Lösungen, mit denen alles sogar gut auf einen kleinen Smartphone-Gimbal passt) in den Himmel gehalten: 1/8000 Speed bei 80 ISO. Was dabei von der Bewegungsunschärfe abgesehen flöten geht ist die Dynamik. Die höhere Dynamik, wie hier (Stelle getimet) erläutert …
https://youtu.be/3z0-x-xoxpo&t=8m12s
… benötigt nicht nur Automatik, sondern Verschlusswinkel zwischen 45° und 315° - oder um diese Werte (eigene, unwissenschaftliche Tests). Was mangels einer Iris nur mit NDs machbar ist. Es gibt auch eine App namens “Kino”, mit der man 180° fixieren kann bei automatischer ISO. Schrott aus zwei Gründen: 1. wie mein Himmelsbeispiel oben zeigt, reicht ISO nicht zur Belichtungsregulierung. Und 2. ist die Extended Dynamic Range in dem Moment futsch, wenn ich Automatik einschränke. Wie MattWhoIsMatt in einem anderen Video demonstriert
hat die Final Cut Camera App übrigens keine EDR-Funktion.
Antwort von Jott:
Wer vergleicht denn?
Wenn ein Spinner (?) sich entscheidet, warum auch immer, eine große Produktion mit iPhones zu drehen und damit einen großen Erfolg landet, dann ist das nun mal so. Auch wenn die Foristen noch so toben.
Wieviele Kinogänger interessiert das überhaupt? Ein Promille? Wohl eher viel weniger.