Wen wundert´s wenn schon hier im Filmer-Forum Vergleiche mit Kameras (mit FF-Sensoren und teuren Objektiven) gezogen werden.Darth Schneider hat geschrieben: ↑Mi 13 Sep, 2023 18:47 Ja und die Hersteller von Zubehör (neben Apple) verdienen sich dumm und dämlich nur weil die Leute so naiv sind um zu glauben mit dem günstigen Smartphone Zubehör Spielzeug können sie dann zum Beispiel den Look von dem Werbe/Music Video da oben einfach so aus dem Ärmel schütteln…..D
Gruss Boris
Ist denn eine G9II mit einer Alexa35 vergleichbar?Darth Schneider hat geschrieben: ↑Mi 13 Sep, 2023 19:02 @iasi
Es geht ja nicht drum das die Telefone heute nun irgendwie grundsätzlich schlecht wären zum filmen oder zum fotografieren.
Im Gegenteil..
Es geht darum das die Smartphones trotzdem nicht wirklich zu vergleichen mit grösseren Kameras sind.
Gut beides fährt…;))
Gruss Boris
Also davon gehe ich allein schon aufgrund der physischen Dimensionen nicht aus.Darth Schneider hat geschrieben: ↑Mi 13 Sep, 2023 19:32 @iasi
Davon gehe ich heute auch auch aus,
aber übermorgen (in ein paar Jahren) hat womöglich das iPhone dank der KI und der sehr schnellen Entwicklung der Smartphone Technik, dann sehr wahrscheinlich schon die genau gleich gute Bildqualität wie die jetzt neue G9 Mark 2.;))
Man sollte KI aber auch nicht überschätzen.Darth Schneider hat geschrieben: ↑Mi 13 Sep, 2023 20:02 @iasi
ja und nein.
Jetzt (natürlich auch früher) nicht.
Aber ich denke wir sollten die KI was die möglichen Möglichkeiten von morgen betrifft besser heute nicht unterschätzen,
beziehungsweise uns nicht zu fest aus Gewohnheit an alter und heute „noch“ aktueller Technik festklammern…
Gruss Boris
Ja - und dazu noch verschweigen, dass es als "Display" in aller Regel ein stockdusteres Mäuse-Kino gibt. Ich erinnere nur an die Diskussion hier, als es hieß: Ein 5-Zoll Atomos mit 700 Nits sei der Weisheit letzter Schluss.
KI ist ja aktuell ein Modethema - aber eben so überhöht, dass der reale Einsatz kaum mehr wahrgenommen wird.gunman hat geschrieben: ↑Mi 13 Sep, 2023 23:07 Hi,
Mal eine Ueberlegung : wenn (wie viele es hier voraussagen und es teils bei den Smartphonen schon
zu finden ist) die KI bei den Mini Sensoren so eine grosse Rolle spielen wird, und so tolle Bilder produziert, wieso sollten die Hersteller von Kameras nicht auch KI implementieren und damit noch viel tollere Bilder produzieren, da die Sensoren bedeutend grösser sind ?
Vielleicht mache ich auch einen Denkfehler, oder habe ein Brett vor dem Kopf.
Oder mit einer Arri. Hätte auch keiner gemerkt. Dennoch: Bei Volkswagen würde man über das IPhone 15 Pro urteilen: Nicht auskonstruiert. Wie kommt man eine externe SSD dran? Wie externe Stromversorgung? Wie ein externes Mikro? Wie eine Funkstrecke? Was funktioniert überhaupt?Frank Glencairn hat geschrieben: ↑Mi 13 Sep, 2023 18:28 Und was den Rodrigo Clip betrifft: Riesen Budget, professionelle Crew, professionelles Licht, Top Regisseur, aufwendige Studioproduktion, Motion Control Roboter Arm auf Schienen, aufwändige Postproduction, jede Menge CGI etc.
Ach ja, und irgendwo war da auch ein Handy im Spiel, aber wahrscheinlich hätte man das bei den Motiven und Rahmenbedingungen auch mit ner Webcam drehen können.
Ich denke, dass die Voraussetzung dafür eine andere ist als das was manche Kamerahersteller einsetzen. Die Kamerahersteller müssten das Innenleben der Kamera überdenken, d.h. andere Prozessoren (SoC), FPGA... etwas, womit Programmiersprachen und die dazugehörige KI-Bibliotheken nach kompilierung in der Kamera ausgeführt werden kann.gunman hat geschrieben: ↑Mi 13 Sep, 2023 23:07 Hi,
Mal eine Ueberlegung : wenn (wie viele es hier voraussagen und es teils bei den Smartphonen schon
zu finden ist) die KI bei den Mini Sensoren so eine grosse Rolle spielen wird, und so tolle Bilder produziert, wieso sollten die Hersteller von Kameras nicht auch KI implementieren und damit noch viel tollere Bilder produzieren, da die Sensoren bedeutend grösser sind ?
Vielleicht mache ich auch einen Denkfehler, oder habe ein Brett vor dem Kopf.
Nicht nur das, die Sensoren müssten viel schneller ausgelesen werden, um Bildreihen anschließend zu Bildern mit niedrigerem Rauschen und höherer DR zusammenzurechnen, wie das Smartphones machen. Nur geht das mit kleinen Sensoren viel besser als mit größeren.roki100 hat geschrieben: ↑Mi 13 Sep, 2023 23:30Ich denke, dass die Voraussetzung dafür eine andere ist als das was manche Kamerahersteller einsetzen. Die Kamerahersteller müssten das Innenleben der Kamera überdenken, d.h. andere Prozessoren (SoC), FPGA... etwas, womit Programmiersprachen und die dazugehörige KI-Bibliotheken nach kompilierung in der Kamera ausgeführt werden kann.gunman hat geschrieben: ↑Mi 13 Sep, 2023 23:07 Hi,
Mal eine Ueberlegung : wenn (wie viele es hier voraussagen und es teils bei den Smartphonen schon
zu finden ist) die KI bei den Mini Sensoren so eine grosse Rolle spielen wird, und so tolle Bilder produziert, wieso sollten die Hersteller von Kameras nicht auch KI implementieren und damit noch viel tollere Bilder produzieren, da die Sensoren bedeutend grösser sind ?
Vielleicht mache ich auch einen Denkfehler, oder habe ein Brett vor dem Kopf.
Weil das alles arme Schlucker sind im Vergleich zu Apple. Im vergangenen Jahr wurden 238 Millionen IPhones verkauft.gunman hat geschrieben: ↑Mi 13 Sep, 2023 23:07 Hi,
Mal eine Ueberlegung : wenn (wie viele es hier voraussagen und es teils bei den Smartphonen schon
zu finden ist) die KI bei den Mini Sensoren so eine grosse Rolle spielen wird, und so tolle Bilder produziert, wieso sollten die Hersteller von Kameras nicht auch KI implementieren und damit noch viel tollere Bilder produzieren, da die Sensoren bedeutend grösser sind ?
Technisch gesehen ist das heutzutage schon möglich, aber leider scheint die entwicklung in der Video- und Fotokamerabranche sehr langsam zu sein... (höchstens vielleicht Wafen-und Spionagesysteme, da sind sie immer Jahre voraus...). ASIC- oder FPGA-Kamerahersteller (wie RED, BMD usw.) verwenden nur Bausteine (IP-Cores), begrenzt und nicht so fortschrittlich wie z.B. das was Apple Library beeinhaltet.cantsin hat geschrieben: ↑Mi 13 Sep, 2023 23:39 Nicht nur das, die Sensoren müssten viel schneller ausgelesen werden, um Bildreihen anschließend zu Bildern mit niedrigerem Rauschen und höherer DR zusammenzurechnen, wie das Smartphones machen. Nur geht das mit kleinen Sensoren viel besser als mit größeren.
Es geht mir ja nicht um die Bildverarbeitungs-Prozessorchips, sondern die Sensoren.roki100 hat geschrieben: ↑Mi 13 Sep, 2023 23:56Technisch gesehen ist das heutzutage schon möglich, aber leider scheint die entwicklung in der Video- und Fotokamerabranche sehr langsam zu sein... (höchstens vielleicht Wafen-und Spionagesysteme, da sind sie immer Jahre voraus...). ASIC- oder FPGA-Kamerahersteller (wie RED, BMD usw.) verwenden nur Bausteine (IP-Cores), begrenzt und nicht so fortschrittlich wie z.B. das was Apple Library beeinhaltet.cantsin hat geschrieben: ↑Mi 13 Sep, 2023 23:39 Nicht nur das, die Sensoren müssten viel schneller ausgelesen werden, um Bildreihen anschließend zu Bildern mit niedrigerem Rauschen und höherer DR zusammenzurechnen, wie das Smartphones machen. Nur geht das mit kleinen Sensoren viel besser als mit größeren.
Ahso, ja, das stimmt.
Apple behauptet, genau das bereits zu können: Koppelung von Ultra-Weit- und Hauptkamera. Ein 3D-ähnliches Video soll entstehen. Richtig zu bewundern aber erste mit der Vision-Pro-Brille, die im Frühjahr kommen soll.dienstag_01 hat geschrieben: ↑Do 14 Sep, 2023 01:07 Wenn z.B. unter bestimmten Lichtbedingungen mehrere Bilder zu einem finalen Foto zusammengerechnet werden, wird das bei Video so nicht stattfinden.
Das ist etwas anderes. Bei Smartphone-Fotos werden in Hochgeschwindigkeit geschossene Fotoserien aus einem Kameramodul zu einem Foto mit niedrigerem Rauschen und höherem DR und höherer Schärfe zusammengerechnet.Jost hat geschrieben: ↑Do 14 Sep, 2023 08:36Apple behauptet, genau das bereits zu können: Koppelung von 2 Objektiven. Ein 3D-ähnliches Video soll entstehen. Richtig zu bewundern aber erste mit der Vision-Pro-Brille, die im Frühjahr kommen soll.dienstag_01 hat geschrieben: ↑Do 14 Sep, 2023 01:07 Wenn z.B. unter bestimmten Lichtbedingungen mehrere Bilder zu einem finalen Foto zusammengerechnet werden, wird das bei Video so nicht stattfinden.
Stimmt. Zusammengerechnet wird in Video aber trotzdem. Das ist halt der Vorteil, wenn Sensor und Objektiv eine Einheit bilden. Das ist alles definiert.
Zunächst zeichnen die iPhones schon lange konstante Frameraten auf, mit einer exotischen Ausnahme:CameraRick hat geschrieben: ↑Mi 13 Sep, 2023 09:41 Na hoffen wir mal dass es jetzt zuverlässig konstante Frameraten aufzeichnen und die Bild"verbesserer" deaktivieren kann. Matsche durch unendliche Noise-Reduction in Prores bleibt halt Matsche.
Am liebsten würde ich diesen Absatz jetzt nach weiland mediaminds Masche komplett fett setzen, aber ich belasse es bei einem Satz: Die Bildverbesserer sind der Grund, warum iPhones überhaupt ernsthaft diskutiert werden. Und die Bildverbesserer sind kinderleicht, wenn nicht ganz abzuschalten, dann zumindest signifikant zu behindern, indem man eine Dritthersteller-Kamera-App verwendet.CameraRick hat geschrieben: ↑Mi 13 Sep, 2023 09:41 Na hoffen wir mal dass (man) die Bild"verbesserer" deaktivieren kann.
Volle Punktzahl.Axel hat geschrieben: ↑Do 14 Sep, 2023 09:37 Sehr schön herausgearbeitet. Ich möchte nochmal ein paar Dinge unterstreichen, um die Missverständnisse zu klären. Damit wir nicht aneinander vorbeischreiben und jemand falsche Erwartungen hegt.
Zunächst zeichnen die iPhones schon lange konstante Frameraten auf, mit einer exotischen Ausnahme:CameraRick hat geschrieben: ↑Mi 13 Sep, 2023 09:41 Na hoffen wir mal dass es jetzt zuverlässig konstante Frameraten aufzeichnen und die Bild"verbesserer" deaktivieren kann. Matsche durch unendliche Noise-Reduction in Prores bleibt halt Matsche.
selbsterklärend
Zu "Matsche durch unendliche Noise Reduction".: wer den Versprechungen glaubt, iPhones seien (für Video, für Fotos sieht's schon anders aus) gut in Lowlight, dem würde ich sagen, ääähm, nö. Eher, wie es so schön heißt, erstaunlich gut, d.h. mäßig und für geringe Ansprüche erleichternd akzeptabel, auf einem 6-Zoll-Schirm oft als toll empfunden. Auf einem großen Schirm fehlen dagegen Details. In einem Direktvergleich iPhone 14 Pro mit Sony A7Siii liegen Welten dazwischen, selbst, wenn ich vor der DSLM eine f.4-Linse hab. Und bekanntlich sind andere DSLMs auch oder in Bezug auf Detail-Erhaltung bessere Lowlight-Kameras.
Die iPhones, und damit das ML, die K.I., die Bildverbesserer, wie du schreibst, benötigen viel Licht (und wenig Motionblur), um am besten zu arbeiten. Die Warnung "mehr Licht erforderlich" sollte unbedingt ernstgenommen werden. MMn sind die ganzen Videopuristen, die Vario-NDs vor die Linsen pappen, um proportionalen Motionblur zu erzwingen, auf dem Holzweg. Ich habe es selbst probiert, und dem bereits zur Auferstehung prozessierten Bild noch ein weiteres Post-Martyrium anzutun (>Fusion >Optical-Flow >Vector-Motionblur) ist echt banal.
Am liebsten würde ich diesen Absatz jetzt nach weiland mediaminds Masche komplett fett setzen, aber ich belasse es bei einem Satz: Die Bildverbesserer sind der Grund, warum iPhones überhaupt ernsthaft diskutiert werden. Und die Bildverbesserer sind kinderleicht, wenn nicht ganz abzuschalten, dann zumindest signifikant zu behindern, indem man eine Dritthersteller-Kamera-App verwendet.CameraRick hat geschrieben: ↑Mi 13 Sep, 2023 09:41 Na hoffen wir mal dass (man) die Bild"verbesserer" deaktivieren kann.
Ohne jetzt im Detail zu verstehen, was dieser Screenshot aus dem Apple-Event erklärt, verstehe ich es intuitiv:
Hier wird jedes Frame bis zum Abwinken analysiert und prozessiert, in wievielen?, 300 Milliarden? Operationen, bis es einen ganz speziellen, sehr gefälligen Apple-Stil erhält. Das, was ebenso mindestens 300.000.000-mal direkt oder indirekt als cinematisch bewertet wurde, wird genau so hingebogen.
1. das Video ist stabil. Gimbals braucht man echt kaum.
2. die Dynamik ist zugleich gestaucht und gedehnt. Auf dem 2000-nits iPhone (auch ja schon 14 Pro) gibt es Schwarz und Licht. Das führt auf nicht-HDR-Displays leicht zu einer Art HDR-Kitsch. Aber es sieht nach unseren Sehgewohnheiten halt garantiert nicht nach Video aus.*
*und noch weniger, wenn man die Belichtungsanpassung permanent bei "-0,7" hält (>Einstellungen >Kamera >Einstellungen beibehalten >Belichtungsanpassung). Schützt noch besser die Lichter und lässt Glättungsmatsche im Noisefloor absaufen.
3. der Farbkontrast ist überwiegend voll ausgereizt und nochmals verstärkt. Selbst ein grauer Novembertag sieht irgendwie immer nach golden hour aus. Autumn Leaves (Lumix-Preset) forever!
4. die Schärfe, die ja nolens volens auch digital hinzugefügt werden muss, ist im Kinomodus auch bei kleinerer virtueller Blende gefällig abgemildert. Ohne das: Fix-Fokus-Anmutung, Kleinsensor-Verzweiflung, Videolook trotz o.e. Bildverbesserungen.
Deswegen rate ich, dem 15 Pro und seiner externen ProRes-Aufzeichnung sehr skeptisch abwartend zu begegnen. Apple übertreibt maßlos in seiner Marktschreierei, aber sie lügen nicht direkt:
In der Szene vor dem "Action Movie" sieht man Unschärfe im Vorder- und Hintergrund:
Wenn er das Rig mit der hinten angeklammerten SSD in die Hand nimmt, erkennt man:
VIDEO. Ist ja auch klar ersichtlich praktisch absolute Schärfentiefe. Die Kinomodus-Videos sind immer zwei movs (Container), aus Gründen der Kompatibilität, einer mit der Endung "E", ohne Lidar-Depthmap und eine größere Datei mit. Das wird über USB-C gewiss nicht übertragen.
Später dann kommt der Clip auf's MBP, wo man ihn als irgendein Log in FCP sieht. Die Projekteinstellung ist "rec709". Dann, zack!, ist das Bild nicht mehr flat, sondern sieht normal aus. Ülkig, ülkig. FCP hat keinen ACES-Workflow, aber einen Automatische-Anpassung-Shortcut (alt+cmd+b), der das ermöglichen könnte.
Aber, Hand auf's Herz, glaubt irgend jemand hier, dass ein ProRes-Clip mit den von mir vermuteten Einschränkungen in irgendeiner Weise gegen einen durchschnittlichen DSLM-Clip gewinnen würde? Ich vermute, noch nicht einmal bestehen. Ich vermute, noch nicht einmal "erstaunlich gut".
Inception?
Kann man übrigens ausrechnen: Die Hauptkamera des iPhone 14 Pro hat einen 7.6mm breiten Sensor, auf den bei 16:9-Videoaufnahme etwas mehr als ein Siebtel (1:7.1) des Lichts eines Full Frame-Sensors fällt.Axel hat geschrieben: ↑Do 14 Sep, 2023 09:37 wer den Versprechungen glaubt, iPhones seien (für Video, für Fotos sieht's schon anders aus) gut in Lowlight, dem würde ich sagen, ääähm, nö. Eher, wie es so schön heißt, erstaunlich gut, d.h. mäßig und für geringe Ansprüche erleichternd akzeptabel, auf einem 6-Zoll-Schirm oft als toll empfunden. Auf einem großen Schirm fehlen dagegen Details. In einem Direktvergleich iPhone 14 Pro mit Sony A7Siii liegen Welten dazwischen, selbst, wenn ich vor der DSLM eine f.4-Linse hab. Und bekanntlich sind andere DSLMs auch oder in Bezug auf Detail-Erhaltung bessere Lowlight-Kameras.
Quatsch, habe mich verrechnet, da ich nur Sensorbreite, nicht Sensorfläche berücksichtigt hatte:cantsin hat geschrieben: ↑Do 14 Sep, 2023 11:17 Kann man übrigens ausrechnen: Die Hauptkamera des iPhone 14 Pro hat einen 7.6mm breiten Sensor, auf den bei 16:9-Videoaufnahme etwas mehr als ein Siebtel (1:7.1) des Lichts eines Full Frame-Sensors fällt.
Da die iPhone-Kamera eine Blendenöffnung von f 1.78 hat, ist deren Objektiv ggü. einem f4-Objektiv zwar 2,3 Blenden (=ca. 6mal) lichtstärker.
Im Endresultat fällt auf den iPhone 14 Pro-Sensor aber ziemlich genau ein Drittel des Lichts wie auf den Sensor der A7s iii mit f4-Objektiv.
Wenn man also die Signalqualität/Lichtstärke des iPhones mit der A7s III simulieren bzw. äquivalent einstellen will, müsste man deren Objektiv auf f7 abblenden. (Wenn man dann noch Brennweite 26mm einstellt, hat man auch äquivalenten Bildwinkel und DoF.)
Oder, andersrum ausgedrückt: das iPhone verhält sich und performt wie eine Full Frame-Hybridkamera mit 26mm/f7-Objektiv.
Was ist das denn für ein Vergleich?
Er meinte, dass andere DSLMs bessere Lowlight Kameras im Vergleich zum iPhone 14 Pro sind und nicht im Vergleich zur A7sIII.
Wie kommst du denn zu dieser Schlußfolgerung?cantsin hat geschrieben: ↑Do 14 Sep, 2023 12:08
Die effektive/genutzte Sensorfläche bei der FF-Kamera bei 16:9-Videoaufnahme ist 36mm*(36*9/16)mm= 729 mm². Beim iPhone ist sie (7,6*(7,6*9/16)= 32,49 mm². Damit ist die Sensorfläche der FF-Kamera 22,44mal (nicht 7,1mal) größer, und fängt der Sensor ungefähr 22mal soviel Licht ein.
Aha. Dann ist ihm also bewußt, dass er das iPhone mit einer der besten Low-Light-Kameras vergleicht, die auch andere Kameras recht düster aussehen lässt.
Ja. Wie denn sonst.
Wenn Du richtig gelesen hättest, wäre Dir aufgefallen, dass die mitberechnet wurden.Was machen denn die ganzen Linsen vor dem Sensor?