Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Infoseite // So funktioniert der iPhone 13 Cinematic Mode



Newsmeldung von slashCAM:



Bis jetzt wusste man noch recht wenig darüber, wie Apple genau sein synthetisches Bokeh in die Aufnahmen des neuen Cinematic Mode hineinrechnet. Allerdings hat Jan Kaiser...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
So funktioniert der iPhone 13 Cinematic Mode


Space


Antwort von Frank Glencairn:

Und dies wird wiederum für Kameras mit kleinen Sensoren ein weiteres großes Stück vom Kuchen der Großsensor-Kameras bescheren. Denn wenn das Bokeh sauber simuliert werden kann (wozu KI-Algorithmen in der Postproduktion einen weiteren großen Teil beitragen werden), bleibt als letzter wichtiger Vorteil der großen Sensorflächen nur noch die Dynamik. Und selbst in diesem Bereich glauben wir schon etwas Neues im Bereich des Computational Imaging am Horizont ausmachen zu können. Ich bin da etwas weniger optimistisch.

Bei irgendwelchen Handyclips isses ja völlig wurscht, aber jemand der ein paar Millionen vor die Kamera stellt, wird mit einem Pseudobokeh, das wie aus einem Zoom Video aussieht, oder einem irgendwie nachträglich schöngerechneten DR wahrscheinlich nicht zufrieden sein. Zumal wir in 2021 in einer Zeit leben, wo selbst Consumer/Prosumer Kameras schon Fullframe haben. Natürlich wird sich auch in diesem Bereich AI weiter entwickeln, aber abgesehen von Söderbergh PR-Stunts etc. sehe ich nicht, daß Handys irgendwann mal Kameras ablösen oder auch nur sinnvoll ergänzen. Selbst für letzteres gibt es bessere Lösungen.
Zu umständlich, limitierend und kompliziert.

Space


Antwort von pillepalle:

Im Consumerbereich werden sich solche 'Schummeltricks' sicher durchsetzen. Da sind die Betrachtungsbedingungen ja meist auch nicht besonders fordernd. Aber im professionellen Bereich geht es meist darum möglichst viele Informationen einzufangen und da haben größere Sensoren eindeutig Vorteile, einfach weil sie mehr Licht/Informationen einfangen. Also echte Daten. Alles was eine KI dazurechnet, mag oft ähnlich wie die Wirklichkeit wirken, hat aber nicht mehr viel mit der Wirklichkeit zu tun. Man macht aus wenig Information viel, aber es ist eben nur ein Ersatz für echte Information. In manchen Fällen mag das auch ok sein, in anderen eben nicht.

VG

Space


Antwort von Axel:

OT, nur angeregt durch diese Lidar-Map Extraktion:
Es müsste doch rein theoretisch banal sein, die Gyro-Metadaten der neueren Sony-Kameras als, äh, normale Trackingdaten aufzubereiten, für Kamerapositionsdaten für virtuelle Studios, amateurhaft von mir jetzt mal Matchmoving genannt.

Space


Antwort von Jott:

"bewegte Depth Map mit deutlich geringerer Auflösung ein (320 x 180 PixelPixel im Glossar erklärt bei einer 1920 x 1080 Clip-Auflösung)"


Und nächstes mal, wenn die Rechenleistung wieder gestiegen ist, einfach die Auflösung der Depth Map der Clipauflösung angleichen, und im iPhone 14 oder 15 sieht die Bokey-Welt schon ganz anders aus. Oder in Actioncams. Oder in Spiegellosen, wo bei den billigen lichtschwachen Kit-Optiken einfach mehr Bokeh reingerechnet wird (zwei Scheinblenden offener ...). Ich hab's zuerst gesagt.

Wir glauben doch alle fest an Technik, nicht wahr?

Ein Schritt weiter jedenfalls in der schleichenden "Entzauberung" des Profis. Für Laien ist der Cine-Effekt völlig okay, insbesondere nach 1,5 Jahren exzessiver Zoomkonferenzen.

Ein Glück, dass die normalen Käufer gar nicht mitkriegen, was sie da haben. Gestern beim Dreh hatte der Kunde tatsächlich ein brandneues 13 Pro dabei. Es kam aber nicht zum Shootout, der Mann wusste gar nichts von den neuen Filmfunktionen und war überglücklich mit seinen Fotos! :-)

Space


Antwort von iasi:

Gerade bei Großproduktionen kommt sowieso ein Großteil des Bildes aus dem Rechner.

Auch diese Technik wird sich durchsetzen - wir stehen schließlich erst am Anfang.

Die Vorteile von Bokeh in der Post liegen zudem auf der Hand:
1. Lässt sich das Bokeh sehr exakt steuern und gestalten.
2. Schärfeverlagerungen in der Post erweitern den Gestaltungsspielraum.
3. Ein Drehen mit hoher Schärfentiefe ist möglich, was das Schärfeziehen erleichtert.
4. Man kann die ideale Blende nutzen und das Maximale aus der Optik herausholen.

Space


Antwort von Darth Schneider:

Ja, ja das wird sich sicher durchsetzen, wie vieles anderes auch das noch kommen mag.
Bis man sich dann die Frage stellt, soll ich den Film überhaupt drehen, oder gleich alles dem Rechner überlassen…?
Gruss Boris

Space


Antwort von teichomad:

Herrlich wie eine gute Optik nicht einfach so ersetzt werden kann. Post Bokeh sollte das Unwort des Jahres werden. Ich sage, bis das einigermaßen annehmbar aussieht wird noch mehr Zeit vergehen als manchen Fanboys lieb ist.

Space


Antwort von cantsin:

Das interessante an der Technik ist, dass man damit auch die Tiefenunschärfe dynamisch verändern kann, ohne die Belichtung anzutasten - so dass in einer Kameraeinstellung der Hintergrund gleitend unschärfer oder schärfer wird. Dafür gibt's bisher eine technisch komplexe Highend-Kinokamera-Lösung, die mit einer gekoppelten Blendensteuerung und ISO-Veränderung/ND-Filtern arbeitet (dazu gab's hier auf Slashcam mal vor Jahren einen Bericht der Redaktion...).

Space



Space


Antwort von prime:

cantsin hat geschrieben:
(...) Dafür gibt's bisher eine technisch komplexe Highend-Kinokamera-Lösung, die mit einer gekoppelten Blendensteuerung und ISO-Veränderung/ND-Filtern arbeitet (dazu gab's hier auf Slashcam mal vor Jahren einen Bericht der Redaktion...).
Oder man nimmt ne Sony Kamera mit stufenlosen elektronischen ND (wie FS5), die können das auch... ist ein "alter" Hut. Aber ja gerne mehr solche integrierte Technologien :-)
teichomad hat geschrieben:
Herrlich wie eine gute Optik nicht einfach so ersetzt werden kann. Post Bokeh sollte das Unwort des Jahres werden. Ich sage, bis das einigermaßen annehmbar aussieht wird noch mehr Zeit vergehen als manchen Fanboys lieb ist.
Wahrscheinlich 1-2 Jahre? ;-D

Space


Antwort von pillepalle:

@ catsin

Ja, nur ich frage mich wo da der große Nutzen dieser Technik sein soll? Von Smartphones die es sonst nicht können mal abgesehen. Ich filme etwas erstmal komplett scharf und lege später fest wo die Unschärfe sein soll? Gerade die Schärfe liegt doch nicht irgendwo willkürlich im Bild, sondern immer bewußt an einer ganz bestimmten Stelle. Und die macht auch einen großen Teil der Bildwirklung aus, eben nicht nur wo der Fokus liegt, sondern auch welche Bereiche scharf und unscharf sind. Am Set bekomme ich dann doch gar keinen richtigen Eindruck davon und das alles nur um irgendwelche Focusracks nachträglich machen zu können? Die Szene gibt es doch ohnehin vor. Das ist ein wenig so wie irgendwas in 8k zu filmen, weil ich noch nicht weiß welchen Ausschnitt ich später nehmen soll. Kann man zwar machen, ist für das Ergebnis aber abträglich.

VG

Space


Antwort von Mantas:

iasi hat geschrieben:

Die Vorteile von Bokeh in der Post liegen zudem auf der Hand:
1. Lässt sich das Bokeh sehr exakt steuern und gestalten.
2. Schärfeverlagerungen in der Post erweitern den Gestaltungsspielraum.
3. Ein Drehen mit hoher Schärfentiefe ist möglich, was das Schärfeziehen erleichtert.
4. Man kann die ideale Blende nutzen und das Maximale aus der Optik herausholen.
Fast alles davon hört sich nach einem Nachteil an.

Space


Antwort von cantsin:

pillepalle hat geschrieben:
@ catsin

Ja, nur ich frage mich wo da der große Nutzen dieser Technik sein soll?
Ich meinte diese Technologie hier:
https://www.slashcam.de/news/single/Cin ... 13037.html

https://www.youtube.com/watch?v=bedgeMwW6sI

Die lässt sich mit herkömmlichen optischen Mitteln nur sehr aufwendig realisieren, und könnte mit Apples Depthmap-Technologie massentauglicher werden.

Space


Antwort von pillepalle:

@ catsin

So kompliziert ist das jetzt nicht. Braucht nur einen Vari-ND und eine Optik mit stufenloser Blende die nicht pumpt. Im Prinzip könnte ich mir die Tilta Mirage Mattebox holen und den Rest dafür hätte ich mit dem Nucleus M Set quasi schon. Aber es braucht natürlich einen Focus Puller dafür, der sich nur darum kümmert.

VG

Space


Antwort von Jott:

Die Sonys mit integriertem Vari-ND können das, in Kombination mit Auto-Blende. War mag, der kann.

Space


Antwort von rush:

Der Unterschied ist halt: das eine legt man bereits während der Aufnahme fix fest - während man bei der Apfel Lösung den Fokus noch in der Post verändern kann. Beides hat seinen Reiz.

Space


Antwort von Jominator:

Das ist ein netter Effekt, aber das gestalterische Nutzungsszenario dürfte eher begrenzt sein. Wirkt auf mich wir eine abgeschwächte Variante des "Vertigo"-Effekts.

Kennt jemand einen Link zu einem Vergleich von diesem Pseudo Depth of Field zu einer echten 35 mm Aufnahme?

Space


Antwort von iasi:

Mantas hat geschrieben:
iasi hat geschrieben:

Die Vorteile von Bokeh in der Post liegen zudem auf der Hand:
1. Lässt sich das Bokeh sehr exakt steuern und gestalten.
2. Schärfeverlagerungen in der Post erweitern den Gestaltungsspielraum.
3. Ein Drehen mit hoher Schärfentiefe ist möglich, was das Schärfeziehen erleichtert.
4. Man kann die ideale Blende nutzen und das Maximale aus der Optik herausholen.
Fast alles davon hört sich nach einem Nachteil an.
Nein.

Space



Space


Antwort von rush:

Jominator hat geschrieben:

Kennt jemand einen Link zu einem Vergleich von diesem Pseudo Depth of Field zu einer echten 35 mm Aufnahme?
Hast du deine 35mm Kamera immer dabei?

Ganz ehrlich - man muss die Kirche doch im Dorf lassen... Es geht hier um ein Telefon und für das was es ist bekommt man eine nette Ergänzung an die man vor Jahren ohne Camcorder plus Zusatzvorbauten aka S35 Adapter nicht Mal denken konnte.

Die wenigsten, wahrscheinlich sogar niemand wird mit dem iPhone 13 ernsthaft größere Produktionen wuppen - aber für den ganzen Social Media Kram ist diese Entwicklung doch 'ne nette Ergänzung. Man sollte das auch immer ein wenig im Zeitkontext betrachten.

Ob man das nun toll findet oder nicht ist 'ne ganz andere Kiste - ich persönlich filme eher selten bis nie mit dem Smartphone obwohl man es ja gefühlt immer dabei hat. Aber ich kenne auch Nutzer die damit bereits ziemlich kreativen und teils brauchbaren Content abliefern, sei es nur als C oder D Roll bzw. um etwas Schnittfutter anzubieten.

Lidar, KI und all die kommenden Technologien werden immer wieder Neuerungen hervorbringen die unser bisheriges Verständnis von Technik in Frage stellen werden.

Spannend allemal - ob und was sich davon durchsetzen wird liegt auch in unseren Händen ;-)

Space


Antwort von Darth Schneider:

Wenn noch vor ein paar Jahren hier auf SlashCAM jemand geschrieben hätte, bald gibt es ProRes und automatisches Cine Toneh, im iPhone hätte man den armen Mann wohl für verrückt erklärt ;))
Mich würde es überhaupt nicht überraschen wenn Samsung als Antwort darauf RAW Video in ihr kommendes Smartphone Flaggschiff intrigieren würde…
Was kommt dann als Nächstes ?
Ich persönlich warte immer noch auf die IOS Programm Version von DaVinci Resolve…Natürlich gratis.;)))
Gruss Boris

Space


Antwort von iasi:

Jominator hat geschrieben:
Das ist ein netter Effekt, aber das gestalterische Nutzungsszenario dürfte eher begrenzt sein. Wirkt auf mich wir eine abgeschwächte Variante des "Vertigo"-Effekts.

Kennt jemand einen Link zu einem Vergleich von diesem Pseudo Depth of Field zu einer echten 35 mm Aufnahme?
Das ist wohl etwas verfrüht, denn die Technik steckt noch in den Anfängen.

Aber natürlich geht da viel und in Zukunft noch mehr:
https://www.youtube.com/watch?v=D6bd4V-ixT4

Denn das eigentlich Hauptproblem war bisher das Keying:
https://www.youtube.com/watch?v=RIZsS0xczbw

Wenn die Kamera jedoch Tiefeninformationen liefert, dann erhält man echte Fokusebenen.

Space


Antwort von pillepalle:

iasi hat geschrieben:


https://www.youtube.com/watch?v=RIZsS0xczbw

Wenn die Kamera jedoch Tiefeninformationen liefert, dann erhält man echte Fokusebenen.
Und worauf würde man den Fokus dann nachträglich legen, wenn nicht auf den Dackel? Auf die Gardine? Das sind natürlich ganz neue kreative Möglichkeiten;)

VG

Space


Antwort von Jominator:

rush hat geschrieben:

Ganz ehrlich - man muss die Kirche doch im Dorf lassen...
Ja, schon klar. Ich wollte nur sehen wie gut die Simulation im Verhältnis ist. Der Grund: Man kann bei der fertigen Aufnahme ja nur schecht erkennen ob das DoF wirklich der Realität entspricht. Sprich, entspricht die Unschärfe der echten Tiefenstaffelung.

Ob das korrekt berechnet wird kann man halt nur im Vergleich zu einer echten DoF Aufnahme sehen.

Space


Antwort von Mantas:

iasi hat geschrieben:
Mantas hat geschrieben:


Fast alles davon hört sich nach einem Nachteil an.
Nein.
ach...

Wenn am Ende alles die Post macht, kommt sowas wie Marvel raus.

Space


Antwort von Darth Schneider:

Was meinst du damit ? Zig Millionen Dollar Gewinn ?
Ist ja grundsätzlich gar nix schlimmes wenn das dabei am Schluss raus kommt.;)
Abgesehen davon,
bei den Marvel Filmen machen sie auch nicht alles in Post, wozu sonst die Schauspieler ? Die spielen ja schon auch und kämpfen nicht nur.
Gruss Boris

Space


Antwort von Mantas:

Ja das meine ich natürlich damit

Space


Antwort von iasi:

Mantas hat geschrieben:
iasi hat geschrieben:


Nein.
ach...

Wenn am Ende alles die Post macht, kommt sowas wie Marvel raus.
Nö. Heute wird bei allen Filme, die im Kino landen, die Post genutzt.

Space



Space


Antwort von R S K:

Mantas hat geschrieben:
Fast alles davon hört sich nach einem Nachteil an.
Genau. Sieht alles viel schlimmer aus als wenn man einfach ohne gedreht hätte, hm?



Na dann. Nicht benutzen. 🤷🏼???

Space


Antwort von roki100:

Tolles Video.

Space


Antwort von Axel:

Ich bekam gestern überraschend das iPhone 13, nachdem es einem Freund, der Max gewöhnt ist, zu klein war. Hab natürlich gleich „Kino“ probiert und es an FCP ge-airdroppt. Schätze, wenn man um Artefakt-Problembereiche weiß, kann man sie leicht vermeiden. Macht Spaß.

Space


Antwort von Jott:



Man sieht doch sofort, dass das kein 16Bit raw war. Der übliche YouTuber-iPhone-Schrott halt! :-)

Space


Antwort von roki100:

Man sieht sofort Du hast mit den Augen die Farbtiefe genauesten analysiert und das Ergebnis dann sofort bei SlashCam offenbart. ;)

Space


Antwort von Jott:

Schon nachvollziehbar, dass sich der eine oder andere alte Hase so langsam Sorgen macht. Die Weiterentwicklung, seit Soderbergh seine frechen iPhone-Spielfilme ins Kino brachte, ist wirklich enorm.

Wie man in fcp jetzt nachträglich die Schärfeebene via Keyframes dahin legen kann, wo man will - und auch virtuell die "Blende" einstellen kann - ist erstaunlich.

Space


Antwort von mash_gh4:

Jott hat geschrieben:
Wie man in fcp jetzt nachträglich die Schärfeebene via Keyframes dahin legen kann, wo man will - und auch virtuell die "Blende" einstellen kann - ist erstaunlich.
ja, vielleicht ist es ganz nützlich, wenn durch derartige features die völlig unsinnige und inflationäre verwendung der tiefenunschärfe weiter ausgewalzt wird und hoffentlich irgendwann von jedermann als schrecklich billig und kontraproduktiv empfunden wird.

dann gibt's sicher schnell wieder jede menge an günstigem FF-equipment auf den gebrauchtgerätebörsen.

Space


Antwort von R S K:

mash_gh4 hat geschrieben:
… die völlig unsinnige und inflationäre verwendung der tiefenunschärfe…
Wie geil. Jetzt ist—weil ja Apple es macht und dann auch noch mit nem blöden Telefon!—eine niedrige Tiefenschärfe ganz plötzlich unsinnig und inflationär.

😂😂😂

Echt herrlich hier. Und so billig vorhersehbar. So sehr, dass es inzwischen doch eigentlich langsam langweilig wird. Nichts originelles mehr.

🥱

Ich glaube du hast grad einen enttarnt, Jott. 😜

Space


Antwort von Axel:

mash_gh4 hat geschrieben:
Jott hat geschrieben:
Wie man in fcp jetzt nachträglich die Schärfeebene via Keyframes dahin legen kann, wo man will - und auch virtuell die "Blende" einstellen kann - ist erstaunlich.
ja, vielleicht ist es ganz nützlich, wenn durch derartige features die völlig unsinnige und inflationäre verwendung der tiefenunschärfe weiter ausgewalzt wird und hoffentlich irgendwann von jedermann als schrecklich billig und kontraproduktiv empfunden wird.
Mit dem Kino-Modus kann ich nachträglich die Schärfentiefe auch wieder auf Fixfokus-Modus einer 1/8"-Chip-Gurke von 1990 drehen. Im Direktvergleich würde jeder lieber *Aufnahmen* mit sDoF haben. Niemand würde sie als "schrecklich billig" empfinden, zumal es wohl eine Frage der Auflösung der Z-Achsen-Matte ist und damit eine Frage der Zeit. Das iPhone 14? Das wird dann vielleicht 4k @ 24p mit HD-Lidar-Daten haben (30p stören nicht wirklich, sie lassen sich super zu 25p konformen, und die unmerkliche Zeitlupe macht die *Aufnahmen* eher noch edler aussehend).

Außerdem bin ich seit 16 Jahren bei slashCAM, und zumindest seit Oktober 2008 gilt sDoF als das Filmlook-Merkmal. Es ist eine Sehgewohnheit. Allerdings, das stimmt, wird ihr bald das Besondere fehlen. Dafür gewöhnt sich der Consumer allmählich, ohne es selbst zu merken, an eine neue Sicht: HDR

zum Bild

Diese Clips sehen am besten aus auf demselben oder anderen iPhones. Ältere Handyvideos sehen durch LDR nach älteren Handyvideos aus.

Warum hob ich *Aufnahmen* hervor? Weil sDoF eigentlich hinderlich ist, um ein gut komponiertes *Bild* aus Hintergrund, Mittelgrund und Vordergrund zu schaffen. Eine alte, sehr alte Weisheit, die schon viele Filmemacher und DoPs im vergangenen Jahrhundert formulierten und die ihre Gültigkeit behält. Aber die Yuccapalme, der Ficus, die Rauhfaser? Ab damit in die Unschärfe.
mash_gh4 hat geschrieben:
dann gibt's sicher schnell wieder jede menge an günstigem FF-equipment auf den gebrauchtgerätebörsen.
Vielleicht.

Space



Space


Antwort von cantsin:

"R S K" hat geschrieben:
Genau. Sieht alles viel schlimmer aus als wenn man einfach ohne gedreht hätte, hm?



Na dann. Nicht benutzen. 🤷🏼???
Ich bin ja totaler Befürworter von Smartphone-Videografie und sehe das iPhone auf dem Gebiet ganz klar vorne.

Trotzdem muss man hier - und dann noch bei einem Showcase-Video - konstatieren, dass die visuelle Qualität dieses Videos sich vor allem der Arbeit vor und hinter der Kamera sowie nach der Kameraaufnahme verdankt.

Die technische Bildqualität finde ich eher bescheiden bzw. enttäuschend, und IMHO können die nicht nur an der YouTube-Kompression liegen. (Denn andere YouTube-Videos haben diese Probleme nicht.)

Z.B.: das brutalst durch den Codec/die Rauschfilterung weichgezeichnete Gesicht bei 0:10 plus die Haare, bei denen zugleich Detailzeichnung fehlt und die Kanten (durch künstliche Nachschärfung)( unnatürlich aufgesteilt sind.

Der Schnee bei 0:12, der nur noch eine ausgebrannte texturlose weisse Masse ist, sowie das ebenfalls texturlose Holz des dahinterstehenden Hauses bei gleichzeitig sichtbaren Treppenartefakten bei den diagonal stehenden Holzbalken, wiederum durch extreme künstliche Nachschärfung verursacht (und der texturlos unnatürlich glatte Nussknacker im Vorgarten).

Die Stroboskop-Bewegungsartefakte bei 00:27 durch fehlenden ND-Filter.

Eigentlich überall im Video extrem plattgebügelte Texturen (Textilien, Pflanzen etc.) und unnatürlich scharfe Kanten wie bei einem Consumer-HD-Camcorder von vor 10 Jahren.

Sieht man natürlich alles nicht, wenn man im Flow des Films ist, der durch Profis gemacht wurde (und wahrscheinlich mit aufwendigen Rigs für die Kamerabewegungen, plus professioneller Postproduktion).

Ausserdem sieht das Video so aus, als wenn in der Postproduktion ein leichter Gaussian Blur auf das gesamte Video gelegt worden wäre, um den Look weicher/organischer zu machen, was vermutlich zu den glattgebügelten Texturen geführt hat, aber die Nachschärfungsartefakte trotzdem nicht aus dem Material 'rausholen konnte.

Ich frage mich sogar, ob hier der DoP das Potential des iPhones (ProRes-Aufzeichnung, Filmic Pro-App mit hohen Bitraten...) wirklich ausgeschöpft hat, oder ob es da vielleicht Vorgaben von Apple gab, dass nur mit Standardparametern der iPhone-Video-App gedreht werden durfte.

Space


Antwort von srone:

cantsin hat geschrieben:
Ausserdem sieht das Video so aus, als wenn in der Postproduktion ein leichter Gaussian Blur auf das gesamte Video gelegt worden wäre, um den Look weicher/organischer zu machen, was vermutlich zu den glattgebügelten Texturen geführt hat, aber die Nachschärfungsartefakte trotzdem nicht aus dem Material 'rausholen konnte.
;-) ultra-contrast von tiffen war die lösung, nutze ich immer noch, auch digital (DFX) gerne.

lg

srone

Space


Antwort von vaio:

cantsin hat geschrieben:
Ich bin ja totaler Befürworter von Smartphone-Videografie...
Ich auch und nutze nichts anderes mehr, als ein iPhone. Seit knapp einem Jahr ein 12 Pro Max. Allerdings auch nur privat als Hobby. ... Ich frage mich sogar, ob hier der DoP das Potential des iPhones (ProRes-Aufzeichnung, Filmic Pro-App mit hohen Bitraten...) wirklich ausgeschöpft hat, oder ob es da vielleicht Vorgaben von Apple gab, dass nur mit Standardparametern der iPhone-Video-App gedreht werden durfte. Mittlerweile weder das Eine, noch das Andere. Für mich ist die Filmic-App "DoubleTake" das Maß aller Dinge. Gleichzeitig mit zwei unterschiedlichen Brennweiten zu filmen und beim Schnitt gelegentlich mit Zwischenschnitte zu arbeiten, ist einfach genial. Wohlgemerkt mit einem Mobiltelefon!! Da reicht mir auch eine HD-Aufnahme.

Space


Antwort von iasi:

cantsin hat geschrieben:
"R S K" hat geschrieben:
Genau. Sieht alles viel schlimmer aus als wenn man einfach ohne gedreht hätte, hm?



Na dann. Nicht benutzen. 🤷🏼???
Ich bin ja totaler Befürworter von Smartphone-Videografie und sehe das iPhone auf dem Gebiet ganz klar vorne.

Trotzdem muss man hier - und dann noch bei einem Showcase-Video - konstatieren, dass die visuelle Qualität dieses Videos sich vor allem der Arbeit vor und hinter der Kamera sowie nach der Kameraaufnahme verdankt.

Die technische Bildqualität finde ich eher bescheiden bzw. enttäuschend, und IMHO können die nicht nur an der YouTube-Kompression liegen. (Denn andere YouTube-Videos haben diese Probleme nicht.)

Z.B.: das brutalst durch den Codec/die Rauschfilterung weichgezeichnete Gesicht bei 0:10 plus die Haare, bei denen zugleich Detailzeichnung fehlt und die Kanten (durch künstliche Nachschärfung)( unnatürlich aufgesteilt sind.

Der Schnee bei 0:12, der nur noch eine ausgebrannte texturlose weisse Masse ist, sowie das ebenfalls texturlose Holz des dahinterstehenden Hauses bei gleichzeitig sichtbaren Treppenartefakten bei den diagonal stehenden Holzbalken, wiederum durch extreme künstliche Nachschärfung verursacht (und der texturlos unnatürlich glatte Nussknacker im Vorgarten).


Ist das nicht auch der Bewegungsunschärfe geschuldet?

Zudem scheint mir der Look auch gewollt - ein wenig trister und trüber.
cantsin hat geschrieben:

Die Stroboskop-Bewegungsartefakte bei 00:27 durch fehlenden ND-Filter.

Eigentlich überall im Video extrem plattgebügelte Texturen (Textilien, Pflanzen etc.) und unnatürlich scharfe Kanten wie bei einem Consumer-HD-Camcorder von vor 10 Jahren.

Sieht man natürlich alles nicht, wenn man im Flow des Films ist, der durch Profis gemacht wurde (und wahrscheinlich mit aufwendigen Rigs für die Kamerabewegungen, plus professioneller Postproduktion).

Ausserdem sieht das Video so aus, als wenn in der Postproduktion ein leichter Gaussian Blur auf das gesamte Video gelegt worden wäre, um den Look weicher/organischer zu machen, was vermutlich zu den glattgebügelten Texturen geführt hat, aber die Nachschärfungsartefakte trotzdem nicht aus dem Material 'rausholen konnte.

Ich frage mich sogar, ob hier der DoP das Potential des iPhones (ProRes-Aufzeichnung, Filmic Pro-App mit hohen Bitraten...) wirklich ausgeschöpft hat, oder ob es da vielleicht Vorgaben von Apple gab, dass nur mit Standardparametern der iPhone-Video-App gedreht werden durfte.
Der Unterschied zwischen Außen und Innen ist recht deutlich.
Außen sehr scharf und eher neutrale Farben.
Innen eher weicher bis hin zu leichter unschärfe und rötlich-warmer Ton.
Im Kühlschrank wiederum der kühle, geschärfte Look.

Mir scheint, dass dies gezielt eingesetzt wurde.

Recht deutlich auch zu sehen, bei der kurzen Einstellung bei 1:14.

Aber letztlich stellt sich die Frage, ob bei diesem Dreh wirklich iPhones nötig waren, wenn man dann eh große Modelle baut.

https://www.youtube.com/watch?v=JCzFO1dFF-k

Space


Antwort von Jost:

Man muss das viel banaler betrachten. Bislang galt:
Alle scharf von hier bis Afrika.
Jetzt nicht mehr.
Seitens der Automatik hat sich aber auch bereits vorher nur Graduelles getan.#

Space


Antwort von Axel:

Vielleicht können wir ja einfach mal die Kirche im Dorf lassen. Die Videoqualität ist, wie cantsin sagt, natürlich deutlich schlechter als die einer richtigen Kamera. Aber brutzelnde Nachschärfung, aggressive Rauschglättung und Artefakte durch künstlichen sDoF sieht man nicht auf dem kleinen Schirm selbst, wo die Bilder auf Anhieb gefälliger aussehen. Was heißt das? Vielleicht dass wir diesen oberflächlich „besseren“ Look zukünftig mit unseren großen Kameras toppen müssen, siehe mash.

Space


Antwort von Darth Schneider:

Ich finde ihr übertreibt.
Das neue iPhone 13 macht tolle Fotos und auch Videos.
Und klar gibt es Artefakte und irgendwelche automatischen Bildoptimierer, die eher witzlos sind. Aber im grossen und ganzen finde ich das meckern auf ziemlich hohen Niveau,
Die Fotos und Video vom iPhone haben jedenfalls bis heute noch nie so cool ausgesehen. Das könnt ihr drehen wie ihr wollt.
Gruss Boris

Space


Antwort von Frank Glencairn:

cantsin hat geschrieben:

Trotzdem muss man hier - und dann noch bei einem Showcase-Video - konstatieren, dass die visuelle Qualität dieses Videos sich vor allem der Arbeit vor und hinter der Kamera sowie nach der Kameraaufnahme verdankt.
Ja, ich denke auch das es hilfreich ist. Leute wie Jason und Ivan Reitman am Set und hinter der Kamera zu haben.

Warum man sich das Leben allerdings freiwillig so unnötig schwer macht, und mit einem Handy filmt (außer für einen Apple Werbeclip natürlich), erschließt sich mir trotz allem nicht.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
cantsin hat geschrieben:

Trotzdem muss man hier - und dann noch bei einem Showcase-Video - konstatieren, dass die visuelle Qualität dieses Videos sich vor allem der Arbeit vor und hinter der Kamera sowie nach der Kameraaufnahme verdankt.
Ja, ich denke auch das es hilfreich ist. Leute wie Jason und Ivan Reitman am Set und hinter der Kamera zu haben.

Warum man sich das Leben allerdings freiwillig so unnötig schwer macht, und mit einem Handy filmt (außer für einen Apple Werbeclip natürlich), erschließt sich mir trotz allem nicht.
Weil es nun einmal handlich und leicht ist. Man kann es mal eben an die Wand tapen.
Aber wenn man schon im Studio mit solchem Aufwand dreht, scheint dies wirklich nicht viel zu bringen und die Vorteile übertreffen nicht die Nachteile.

Space



Space


Antwort von Darth Schneider:

Komm jetzt, meine Pocket mit dem Pana 25mm ist auch klein und handlich…

Das ist heute kein Argument mehr, zumal soooo klein und handlich ist das grosse iPhone Pro, für ein Telefon eigentlich gar nicht…..
Eher ein flach gedrückter Klotz…
Gruss Boris

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:

Weil es nun einmal handlich und leicht ist. Man kann es mal eben an die Wand tapen.
Leicht ist eigentlich eher ein Nachteil, wenn man nicht gerade Blairwitch Teil 3 dreht, und muß deshalb unter Qualitätsverlust stabilisiert und reframed werden. Könnte man sich mit ne richtigen Kamera auf nem Dolly alles sparen, und gleich beim Dreh richtig machen.

Und wenn man sieht was die da so alles dran riggen müssen, kannste auch gleich ne Pocket nehmen, ohne die ganzen Nachteile eines Handys.

2021-11-28 08.35.27 www.slashcam.de e163ca752dbe.jpg Und ja - daß ich ne Kamera an die Wand tapen muß kommt ja ständig vor.... :D

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:

Weil es nun einmal handlich und leicht ist. Man kann es mal eben an die Wand tapen.
Leicht ist eigentlich eher ein Nachteil, wenn man nicht gerade Blairwitch Teil 3 dreht, und muß deshalb unter Qualitätsverlust stabilisiert und reframed werden. Könnte man sich mit ne richtigen Kamera auf nem Dolly alles sparen, und gleich beim Dreh richtig machen.

Und wenn man sieht was die da so alles dran riggen müssen, kannste auch gleich ne Pocket nehmen, ohne die ganzen Nachteile eines Handys.


2021-11-28 08.35.27 www.slashcam.de e163ca752dbe.jpg

Und ja - daß ich ne Kamera an die Wand tapen muß kommt ja ständig vor.... :D
Im Studio würde ich dir zustimmen.

Aber ansonsten ist es mit einem Dolly eben weit mehr Aufwand während der knappen und teuren Drehzeit.
Am Set sind die Crew und die Darsteller versammelt.
In der Post hingegen ...

Oft lässt man eben die Dolly-Fahrt ausfallen, weil man dafür schlicht keine Zeit hat.
Das scheitert ja meist sogar schon bei der Logistik, denn man muss das ganze Gerümpel ja auch zum Drehort transportieren, zuvor natürlich zusammenstellen, verladen und am Ende wieder abladen, warten und zurück ins Regal räumen. ;)

Meist ist der technische Aufwand der Grund, weshalb man etwas nicht macht bzw. machen kann.
Daher ist es ja so wichtig, dass die Hürden möglichst niedrig gehalten werden.
Das ist der Grund, weshalb ich sehr vom DJI 4D angetan bin.

Und dies betrifft übrigens generell jede Produktion - ganz egal wie hoch das Budget ist. Irgendwo ist immer eine Grenze.

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:


Oft lässt man eben die Dolly-Fahrt ausfallen, weil man dafür schlicht keine Zeit hat.
Das scheitert ja meist sogar schon bei der Logistik, denn man muss das ganze Gerümpel ja auch zum Drehort transportieren, zuvor natürlich zusammenstellen, verladen und am Ende wieder abladen, warten und zurück ins Regal räumen. ;)

Meist ist der technische Aufwand der Grund, weshalb man etwas nicht macht bzw. machen kann.
Wenn man ne Straße gesperrt hat, das Motiv und die Nachbarschaft mit Kunstschnee eingedeckt, top Leute am Set etc. dann spielt ein Dolly keine Rolle mehr. Der kostet auch keine extra Zeit, weil der Aufbau der Szene parallel zum Dolly gemacht wird.

Das sind alles immer nur solche Hobbyfilmer-one-man-show Probleme, and nem normalen Set hat man einfach genug Leute für sowas.

Space


Antwort von R S K:

Genial. Erst…"Frank Glencairn" hat geschrieben:
Warum man sich das Leben allerdings freiwillig so unnötig schwer macht, und mit einem Handy filmt
und gleich
"Frank Glencairn" hat geschrieben:
(außer für einen Apple Werbeclip natürlich)
hinterher. 😂👍🏼 Bravo.

Da muss man sich schon gewollt begriffsstutzig geben, wenn man denkt die Reihenfolge wäre "Hey Apple, wir wollen einen Kurzfilm mit einem neuen iPhone 13 drehen… habt ihr Interesse??" gewesen, um sich die Frage überhaupt erst zu stellen. Puh. Vor allem auch nicht ein Wort des Making of's verstanden haben, wo die eine endlose Liste an Gründen runterrattern wo sie die ganz großen Vorteile sehen. Manche hören/sehen halt immer nur das was sie wollen, solange man auf unverständlichen "super-Pro" dabei machen kann.

Jott hat es ja schon vorausgesagt. Würde ich fast "hellseherisch" nennen, wenn das ganze von den üblichen Verdächtigen hier nicht soooo einen Bart hätte und für jeden normal sterblichen der min. 2 Wochen im Forum mitgelesen hat, praktisch Wort für Wort vorhersehbar war.



iasi hat geschrieben:
ob bei diesem Dreh wirklich iPhones nötig waren, wenn man dann eh große Modelle baut.
Genau! Ist ein "Industry First!!". Das hat man bis dato, bei Drehs mit "richtigen" Kameras, noch nie gesehen! Ist alles natürlich NUR weil es iPhones sind. Ganz klar.

🤦🏼???



"Darth Schneider" hat geschrieben:
soooo klein und handlich ist das grosse iPhone Pro, für ein Telefon eigentlich gar nicht…..
Eher ein flach gedrückter Klotz…
Wat'n Fuchs. Wieder richtig! Genial erkannt.


zum Bild


Ich hol dir schon mal Gaffer für deine "Pocket mit Pana 25". 👍🏼


"Frank Glencairn" hat geschrieben:
Und wenn man sieht was die da so alles dran riggen müssen
Genau. Ganz klar MÜSSEN. Wäre nicht ohne gegangen. Genau wie eine BMD wasauchimmer ein Cage haben MUSS, nicht wahr?


"Frank Glencairn" hat geschrieben:
daß ich ne Kamera an die Wand tapen muß kommt ja ständig vor...
Wer sagt das ist in Wand? Aber klar. Weil du es schließlich mit jeder Kamera auch KANNST. Nicht erst machst WEIL du es kannst. Nee nee.

Top und vor allem absolut logische Schlussfolgerung. 👍🏼

Space


Antwort von pillepalle:

Die Quintessenz des Ganzen ist aber doch nur, dass man im Prinzip mit jeder Kamera einen Film drehen kann, sogar mit einem iPhone. Wichtiger als die Kamera ist eben das Know-How, eine gute Story und diese erzählen zu können, gute Schauspieler, usw... alles was man prinzipiell schon immer wußte :) Es ist also wichtiger wer die Kamera nutz, als um was für eine Kamera es sich tatsächlich handelt. Den einen gefällt das Footage des iPhone, anderen nicht. Aber das ist ja mit jeder Kamera so. Und meist steht eben auch der Aufwand im Verhältnis zum Ergebnis.
Mit dem iPhone kann zwar jeder filmen, aber es ist eben nicht für jeden das richtige Tool.

VG

Space


Antwort von Frank Glencairn:

"R S K" hat geschrieben:
Genial. Erst…"Frank Glencairn" hat geschrieben:
Warum man sich das Leben allerdings freiwillig so unnötig schwer macht, und mit einem Handy filmt
und gleich
"Frank Glencairn" hat geschrieben:
(außer für einen Apple Werbeclip natürlich)
hinterher. 😂👍🏼 Bravo.
Oh Robin....

Was ist los mit dir? Zuviel Glühwein?

Sollte doch ziemlich offensichtlich sein, daß ich sagte = warum sollte jemand die ganzen Nachteile eines Drehs mit Handy in kauf nehmen - außer er dreht für das iPhone einen Werbefilm - da bleibt einem ja nix anderes übrig.
"R S K" hat geschrieben:

Ganz klar MÜSSEN. Wäre nicht ohne gegangen. Genau wie eine BMD wasauchimmer ein Cage haben MUSS, nicht wahr?
Wenn's ohne gegangen wäre, hätten sie es wohl ohne gemacht - wär ja auch schicker für das Making of gewesen.
"R S K" hat geschrieben:

Wer sagt das ist in Wand? Aber klar. Weil du es schließlich mit jeder Kamera auch KANNST. Nicht erst machst WEIL du es kannst. Nee nee.
Der letzte Satz läßt sich auch durch Glühweinmissbrauch nicht mehr erklären.

Space


Antwort von Darth Schneider:

Da ist wohl einer mit dem falschen Fuss aufgestanden, heute Morgen.

Es spricht eigentlich nichts dagegen mit einem iPhone was auch immer zu drehen.
Aber es spricht aber einfach weitaus mehr dafür, nach Möglichkeit lieber doch mit einer grösseren, und vor allem mit einer besseren Kamera zu drehen…
Gruss Boris

Space


Antwort von Axel:

"Darth Schneider" hat geschrieben:
Es spricht eigentlich nichts dagegen mit einem iPhone was auch immer zu drehen.
Aber es spricht aber einfach weitaus mehr dafür, nach Möglichkeit lieber doch mit einer grösseren, und vor allem mit einer besseren Kamera zu drehen…
Drehen, ja. Was ist mit "Aufnehmen"?

Sind doch eh nur wir alten Säcke, die nicht 90% ihres AV-Konsums über Smartphones tätigen.

Und was ist übrigens mit Vorbereitung zum Drehen?
Das ist doch die Storyentwicklungsmaschine, war es immer schon. Aber jetzt kann das Aussehen zumindest nativ, d.h. im Flipbook-Format, mit der größeren Kamera mithalten:

Da wir gerade von Mithalten sprechen: "Frank Glencairn" hat geschrieben:
Leicht ist eigentlich eher ein Nachteil, wenn man nicht gerade Blairwitch Teil 3 dreht, und muß deshalb unter Qualitätsverlust stabilisiert und reframed werden.
Das Halten eines Smartphones ist für den Silberrücken-Gimbalheini, der nicht mehr wild drauflosgestikuliert, durch spezielle Minigimbals ein Kinderspiel. Zusammen mit der eingebauten Stabilisierung kann das aussehen wie ein Tarkowski-Creep, der statt mit einem Dolly mit einem echten Güterzug gedreht wurde.

Also wie gesagt, aufwändige Filme mit einem Telefon zu drehen, ist doof. Als Plotfinder (analog zum Viewfinder) sind diese Geräte inzwischen ausgereift.

Space



Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:


Oft lässt man eben die Dolly-Fahrt ausfallen, weil man dafür schlicht keine Zeit hat.
Das scheitert ja meist sogar schon bei der Logistik, denn man muss das ganze Gerümpel ja auch zum Drehort transportieren, zuvor natürlich zusammenstellen, verladen und am Ende wieder abladen, warten und zurück ins Regal räumen. ;)

Meist ist der technische Aufwand der Grund, weshalb man etwas nicht macht bzw. machen kann.
Wenn man ne Straße gesperrt hat, das Motiv und die Nachbarschaft mit Kunstschnee eingedeckt, top Leute am Set etc. dann spielt ein Dolly keine Rolle mehr. Der kostet auch keine extra Zeit, weil der Aufbau der Szene parallel zum Dolly gemacht wird.

Das sind alles immer nur solche Hobbyfilmer-one-man-show Probleme, and nem normalen Set hat man einfach genug Leute für sowas.
Du immer mit deinen Träumen von den Mega-Großproduktionen, bei denen Kosten keine Rolle spielen und man alles umsetzen kann.
Und doch gibt"s eben immer Grenzen, denn irgendwo steht immer eine Zahl, die nicht überschritten werden darf.

Und wenn eben "parallel" mal eben etwas aufgebaut werden soll, dann braucht es eben dieses "etwas" und vor allem eben auch die Leute, die das heranschaffen und aufbauen.
Es hat nichts mit "Hobbyfilmer-one-man-show", wenn diese Leute und das Material das Budget auszehren und dadurch die verfügbare Drehzeit verkürzen.

Wenn du 20 Leute 25 Tage lang bezahlen kannst, dann reicht das Budget bei 25 Leuten eben nur noch für 20 Tage.

Space


Antwort von pillepalle:

iasi hat geschrieben:
Wenn du 20 Leute 25 Tage lang bezahlen kannst, dann reicht das Budget bei 25 Leuten eben nur noch für 20 Tage.
Drushba könnte uns das mit seiner neuen Software jetzt ausrechnen, ob wir lieber 25 Tage mit dem iPhone filmen sollten, oder lieber 20 Tage mit einem Dolly und der Alexa LF :)

VG

Space


Antwort von Darth Schneider:

@iasi
Und was hat das jetzt alles mit dem iPhone zu tun ?
Wenn jemand einen Film dreht, ganz egal, was für einen, ob mit einem grossem oder mit einem kleinen Budget. In jedem Szenario ist die Kamera doch jetzt wirklich das was mit Abstand am wenigsten kostet.
Man kann sich ja auch eine Kamera ausleihen, womöglich auch gratis..
Ausserdem so günstig ist das iPhone ja auch nicht, eine Canon M50 ist günstiger..)
Gruss Boris

Space


Antwort von iasi:

pillepalle hat geschrieben:
iasi hat geschrieben:
Wenn du 20 Leute 25 Tage lang bezahlen kannst, dann reicht das Budget bei 25 Leuten eben nur noch für 20 Tage.
Drushba könnte uns das mit seiner neuen Software jetzt ausrechnen, ob wir lieber 25 Tage mit dem iPhone filmen sollten, oder lieber 20 Tage mit einem Dolly und der Alexa LF :)

VG
Und dann fällt natürlich die deutsche Entscheidung zugunsten der tollen Technik aus - mit den bekannten Ergebnissen. :D

Es gibt zudem ja nun auch z.B. die DJI 4D. ;)

Space


Antwort von Frank Glencairn:

iasi hat geschrieben:

Es hat nichts mit "Hobbyfilmer-one-man-show", wenn diese Leute und das Material das Budget auszehren und dadurch die verfügbare Drehzeit verkürzen.

Wenn du 20 Leute 25 Tage lang bezahlen kannst, dann reicht das Budget bei 25 Leuten eben nur noch für 20 Tage.
Du willst mir also allen Ernstes erzählen daß ein Apple ein finanzielles Problem hätte nen läppischen Dolly mit Crew zu mieten?

Und wenn sie den Schnee weggelassen hätten, hätten sie nach deiner Logik nochmal 5 Tage länger drehen können.
2 Schauspieler hätten es auch getan, Single Mom ist sowieso realistischer - oder am besten gleich alles in Unreal machen.

Der ganze Spaß hat Apple so schätzungsweise so zwischen 100.000 und 150.000 Dollar gekostet - als ob da die Kosten für nen Dolly nen Unterschied gemacht hätten.

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Und was hat das jetzt alles mit dem iPhone zu tun ?
Wenn jemand einen Film dreht, ganz egal, was für einen, ob mit einem grossem oder mit einem kleinen Budget. In jedem Szenario ist die Kamera doch jetzt wirklich das was mit Abstand am wenigsten kostet.
Man kann sich ja auch eine Kamera ausleihen, womöglich auch gratis..
Ausserdem so günstig ist das iPhone ja auch nicht, eine Canon M50 ist günstiger..)
Gruss Boris
Es geht nicht um die Kosten für die Technik, sondern um den Zeitaufwand, diese einzusetzen.

Hier gibt es ein Beispiel:

https://youtu.be/jtLODYh34uA?t=1094

Space


Antwort von Darth Schneider:

Ich denke nicht das es gross einen zeitlichen Unterschied macht ob jetzt der Frank mit seiner Ursa oder mit dem iPhone filmt.
Eine Kamera und ein Stativ aufbauen, dauert wenn es sein muss keine 5 Minuten….ganz egal welche, wenn der Kameramann, beziehungsweise das Team gut vorbereitet ist.
Gruss Boris

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:

Es hat nichts mit "Hobbyfilmer-one-man-show", wenn diese Leute und das Material das Budget auszehren und dadurch die verfügbare Drehzeit verkürzen.

Wenn du 20 Leute 25 Tage lang bezahlen kannst, dann reicht das Budget bei 25 Leuten eben nur noch für 20 Tage.
Du willst mir also allen Ernstes erzählen daß ein Apple ein finanzielles Problem hätte nen Dolly mit Crew zu mieten?
Schaffst du vielleicht auch mal die Übertragung eines Beispiels auf eine generelle Problematik?

Und auch bei Apple gibt es immer eine klare Budgetierung.
Da heißt es nicht: Macht mal. Leitet einfach die Rechnung weiter. Wir bezahlen alles. Egal was es kostet.
Das sind vielleicht die Vorstellungen von Hobbyfilmern.

Einen Dollar kann auch Apple nur einmal ausgeben.
Daher sitzen auch bei Apple Leute, die eine Budget-Obergrenze festlegen.

Space


Antwort von Darth Schneider:

Ja und diese Obergrenze von Apple ist ganz bestimmt mindestens ein Viertel mehr als effektiv im Minimum, laut Planung benötigt wird….
Apple ist gar nicht knauserig mit dem Geld, das sieht man den Spots auch an.
Gruss Boris

Space



Space


Antwort von Frank Glencairn:

Ich weiß ja nicht, wie oft du schon mit Agenturen in Budgetverhandlungen gesessen bist iasi,
aber das läuft normal etwas anders.

Space


Antwort von Darth Schneider:

Schon mal für eine Gemeinde gearbeitet ?
Es wird doch immer mehr budgetiert als gebraucht wird, anders herum ist eher sehr doof. Also in der Schweiz kommt es mir allgemein schon sehr stark so vor.
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
Ich denke nicht das es gross einen zeitlichen Unterschied macht ob jetzt der Frank mit seiner Ursa oder mit dem iPhone filmt.
Eine Kamera und ein Stativ aufbauen, dauert wenn es sein muss keine 5 Minuten….ganz egal welche, wenn der Kameramann, beziehungsweise das Team gut vorbereitet ist.
Gruss Boris
Um mit einer Ursa eine Kamerabewegung zu realisieren, die mit einem DJI 4D möglich sind, ist der Aufwand sehr viel höher.

Um mit einer Ursa eine Aufnahme zu realisieren, bei der die Größe eines iPhones eingesetzt wird, ist der Aufwand sehr viel höher.

Mal ein konkretes Beispiel:
Aufnahmen im Fußraum eines Autos von den Pedalen.
Die eine Kamera platziert man mal eben.
Mit der anderen Kamera müsste man das Auto aufbocken, den Fahrzeugboden öffnen, ... Und am Ende verzichtet man dann auf diese Einstellung, weil der Aufwand zu groß wäre.

Space


Antwort von cantsin:

Nur um mal zu untermauern, warum die technische Bildqualität des "Holiday"-Apple-Demofilms IMHO unbefriedigend ist:
mpv-shot0003.jpg 1:1 crop: mpv-shot0003-crop.png




mpv-shot0004.jpg 1:1 crop: mpv-shot0004-crop.png




mpv-shot0006.jpg 1:1 crop: mpv-shot0006-crop.png



mpv-shot0008.jpg 1:1 crop: mpv-shot0008-crop.png




mpv-shot0010.jpg 1:1 crop: mpv-shot0010-crop.png


- Habe den Film mit youtube-dl in höchster Auflösung und Codecqualität runtergeladen und die Screengrabs (im Original als verlustfrei komprimierte PNGs) mit mpv erstellt. Die 1:1-Crops entspechen also pixelgenau dem originalen Videostream. Habe bewusst nur statische Shots ohne Bewegungsunschärfe im Gesamtbild gewählt.

Space


Antwort von Funless:

Axel hat geschrieben:
Als Plotfinder (analog zum Viewfinder) sind diese Geräte inzwischen ausgereift.
Ich muss gestehen, dass ich seit ich mein 13‘er Pro habe, ich meine Storyboards nicht mehr zeichne, sondern damit quasi Bewegtbild Storyboards aufnehme, also eigentlich analog zu Rodriguez der das bereits vor 26 Jahren mit ner MiniDV gemacht hatte. Damals fand ich das affig von ihm aber mit dem Cinematic Mode beim 13‘er Pro ist das auf diese Weise -> für mich jedenfalls <- sehr hilfreich.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
Ich weiß ja nicht, wie oft du schon mit Agenturen in Budgetverhandlungen gesessen bist iasi,
aber das läuft normal etwas anders.
Ach ja.
"Verhandlungen" impliziert jedenfalls schon mal nicht, dass du einen Blankoscheck ausgestellt bekommst.

Space


Antwort von Darth Schneider:

@iasi
Ich bin mir ganz sicher wenn Frank so was dreht, dann ist noch bevor die Schauspieler überhaupt auf dem Set sind, eine Ursa bereit auf dem Stativ, die zweite bereit auf dem Kran und die Pocket womöglich bereit auf dem Gimbal.
Also auf die Kamera warten muss dann gar niemand…;)
Dafür hat er ja mehrere Cams.
Was man dann ja mit dem iPhone am besten ganz ähnlich, wenn nicht genau gleich machen würde. Um Zeit zu sparen.
Und wenn du mal vor hast eine Hochzeit, oder was ähnliches mit iPhones zu drehen brauchst du etwa 10 davon, schon allein wegen dem Akku und wegen dem begrenzen Speicher.
Also billiger wird das so dann auch nicht.

Und auch für ein Making Of, oder Backstage Aufnahmen würde ich eine grosse Kamera dem iPhone unbedingt vorziehen.
Warum ?
Siehe oben, die selben zwei simplen Gründe.
Gruss Boris

Space


Antwort von iasi:

"Darth Schneider" hat geschrieben:
@iasi
Ich bin mir ganz sicher wenn Frank so was dreht, dann ist noch bevor die Schauspieler überhaupt auf dem Set sind, eine Ursa bereit auf dem Stativ, die zweite bereit auf dem Kran und die Pocket womöglich bereit auf dem Gimbal.
Also auf die Kamera warten muss dann gar niemand…;)
Dafür hat er ja mehrere Cams.
Was man dann ja mit dem iPhone am besten ganz ähnlich, wenn nicht genau gleich machen würde. Um Zeit zu sparen.
Und wenn du mal vor hast eine Hochzeit, oder was ähnliches mit iPhones zu drehen brauchst du etwa 10 davon, schon allein wegen dem Akku und wegen dem begrenzen Speicher.
Also billiger wird das so dann auch nicht.

Und auch für ein Making Of, oder Backstage Aufnahmen würde ich eine grosse Kamera dem iPhone unbedingt vorziehen.
Warum ?
Siehe oben, die selben zwei simplen Gründe.
Gruss Boris
Aha. Franks Kameras, Stative und Kran fahren also schon vor der Crew allein ans Set und bauen sich auf.

Ihr redet immer von Profis und Hobbyfilmern aber seht nicht über eine Einstellung hinaus.

Du musst den ganzen Krempel erstmal vorbereiten, dann zum Drehort transportieren, dann für jede Einstellung (und eben nicht nur zu Beginn des Drehtages) einrichten, am Ende wieder abbauen, transportieren, warten.

Manche Einstellung sind dann aufgrund des zu hohen Aufwands mit einer Ursa dann eben auch nicht realisierbar. Sollte ein Projekt mehrere wichtige solcher Einstellungen erfordern, dann kann es sinnvoll sein, ein iPhone mit den bekannten Nachteilen zu nutzen, statt auf diese wichtigen Einstellungen zu verzichten.

Das geeigneste Werkzeug gilt es zu nutzen.

Space


Antwort von cantsin:

Nochmal zurück zum Thema: Funktioniert der 'Cinematic Mode' mit den nachträglichen Fokusverlagerungen eigentlich auch bei ProRes- oder Filmic Pro-Aufnahme, oder ist man da auf den Standardmodus beschränkt und handelt sich dann die Codec-Artefakte ein, die ich in meinen Screengrabs des Apple-Promo-Films gezeigt hatte?

Space



Space


Antwort von Frank Glencairn:

iasi hat geschrieben:


Du musst den ganzen Krempel erstmal vorbereiten, dann zum Drehort transportieren, dann für jede Einstellung (und eben nicht nur zu Beginn des Drehtages) einrichten, am Ende wieder abbauen, transportieren, warten.
Erstens ist das nix im Vergleich zu dem ganzen anderen Krempel den man am Set braucht - je nach Größe haben schon die Jungs vom Catering mehr Zeug dabei.

Und zweitens ist das wie wenn ein Gas-Wasser-Scheiße Installateur, der nur mit nem Schweizer Taschenmesser zur Baustelle kommen würde, weil -puh- das ganze Werkzeug erst mal vorbereiten und einladen, dann zur Baustelle transportieren, und am Ende auch noch wieder alles einpacken und zurück transportieren...
iasi hat geschrieben:

Manche Einstellung sind dann aufgrund des zu hohen Aufwands mit einer Ursa dann eben auch nicht realisierbar.

Kannst du mir bitte ein paar Beispiele von Filmen zeigen, wo manche Einstellungen wegen "des zu hohen Aufwands" mit einer normalen Kamera nicht realisierbar waren, aber mit einem Handy hätten gedreht werden?

Space


Antwort von Axel:

cantsin hat geschrieben:
Nochmal zurück zum Thema: Funktioniert der 'Cinematic Mode' mit den nachträglichen Fokusverlagerungen eigentlich auch bei ProRes- oder Filmic Pro-Aufnahme, oder ist man da auf den Standardmodus beschränkt und handelt sich dann die Codec-Artefakte ein, die ich in meinen Screengrabs des Apple-Promo-Films gezeigt hatte?
Ohne jetzt die Belege dafür rauszusuchen denke ich, dass sowohl das offizielle ProRes als auch FiLMiC Pro nicht allzu viel bringen. Es gelingt ja FiLMiC noch nicht einmal, eine Log-Version zu bringen. Die einzigen Artefakte, die vermieden würden, wären Kompressionsartefakte. Nicht, dass es die in HEVC gar nicht mehr gäbe, aber wie diverse Vergleiche des 13 Pro mit großen Kameras zeigen, wird eher, was von fern wie bessere Auflösung aussieht, durch Zwangsschärfung erzielt (in einem Video wirkte der Vergleichsclip weich und matschig, bei 400% Zoom zeigte sich, dass er aber sogar besser aufgelöst war). NR, Stabi, andere Korrekturen, alles im Backteig.

Auch farblich ist das Material fertig, ein bisschen wie S-Cinetone (bloß im Gegensatz dazu viel zu gesättigt). Misch-WB geht, ist aber wysiwyg. Hab es während der Aufnahme richtig oder es wird Murks. Schade bei einem 10-Bit Codec. Ein iasi-Argument? Ja, ein bisschen Spielraum möchte wohl jeder noch in der Post.

Space


Antwort von iasi:

"Frank Glencairn" hat geschrieben:
iasi hat geschrieben:


Du musst den ganzen Krempel erstmal vorbereiten, dann zum Drehort transportieren, dann für jede Einstellung (und eben nicht nur zu Beginn des Drehtages) einrichten, am Ende wieder abbauen, transportieren, warten.
Erstens ist das nix im Vergleich zu dem ganzen anderen Krempel den man am Set braucht - je nach Größe haben schon die Jungs vom Catering mehr Zeug dabei.

Und zweitens ist das wie wenn ein Gas-Wasser-Scheiße Installateur, der nur mit nem Schweizer Taschenmesser zur Baustelle kommen würde, weil -puh- das ganze Werkzeug erst mal vorbereiten und einladen, dann zur Baustelle transportieren, und am Ende auch noch wieder alles einpacken und zurück transportieren...
iasi hat geschrieben:

Manche Einstellung sind dann aufgrund des zu hohen Aufwands mit einer Ursa dann eben auch nicht realisierbar.

Kannst du mir bitte ein paar Beispiele von Filmen zeigen, wo manche Einstellungen wegen "des zu hohen Aufwands" mit einer normalen Kamera nicht realisierbar waren, aber mit einem Handy hätten gedreht werden?
Haywire - Soderbergh.
Das Beispiel mit der Aufnahme aus dem Fußraum eines Autos.
Wäre mit einer Alexa z.B. nicht möglich gewesen.

Eine Dolly-Fahrt in den Bergen könnte man sicherlich auch realisieren. Der Aufwand könnte jedoch so erheblich werden, dass ...


Dein Gas-Wasser-Scheiße Installateur wird unter der engen Küchenspüle auch nicht seine große Wasserrohrzange nutzen, sondern zur kleineren greifen. Denn auf den Abbau der Küchenmöbel wird er verzichten wollen.

Und kein Handwerker nimmt all seine Werkzeuge und Gerätschaften zu jeder Baustelle mit, sondern plant genau, was er denn brauchen wird. Es braucht z.B. nicht immer ein Gerüst.
Auch der wohlhabenste Kunde wird ihm die Kosten für ein Gerüst nicht bezahlen, wenn er nur an der kleinen Gartenhütte gearbeitet hatte.

Space


Antwort von mash_gh4:

Axel hat geschrieben:
Ohne jetzt die Belege dafür rauszusuchen denke ich, dass sowohl das offizielle ProRes als auch FiLMiC Pro nicht allzu viel bringen...
der gestalterische spielraum für die programmierer entsprechender apps ist bei den kamera-schnittstellen der handys -- egal ob iphone od. android -- leider immer ziemlich eng beschränkt, weil das meiste über die verfügbaren high-level APIs nicht wirklich einschneidend modifiziert werden kann. das praktische processing der bilddatenströme auf diesen geräten oft auch an undurchsichtige hardwarelösungen geknüpft, damit das ganz möglichst wenig strom frist bzw. in einem derartigem umfeld überhaupt vernünftig läuft.

bei den iphones gibt's natürlich zumindest den vorteil, dass man nur relativ wenige unterschiedliche modelle bzw. hardwarevariationen bei der entwicklung von apps berücksichtigen muss, aber ansonsten dürften die voraussetzungen für derartige eingriffe unter android -- oder besser: einzelnen android geräten -- entgegenkommender sein bzw. mehr möglichkeiten bieten.

Space


Antwort von Jörg:

iasi argumentiert Und kein Handwerker nimmt all seine Werkzeuge und Gerätschaften zu jeder Baustelle mit, sondern plant genau, was er denn brauchen wird. Es braucht z.B. nicht immer ein Gerüst.
Auch der wohlhabenste Kunde wird ihm die Kosten für ein Gerüst nicht bezahlen, wenn er nur an der kleinen Gartenhütte gearbeitet hatte.
das muss ja eine grässliche Nacht gewesen sein...

nee iasi, der erfahrene Handwerker w ei ß, das er n i c h t s planen kann, er nimmt
e r f a h r u n g s g e m ä ß den nötigen Querschnitt mit.
Dein Handwerker ist der, der angekommen feststellt, dass er weder das richtige Werkzeug
noch das passende Material dabei hat...
ich komm dann mal wieder.

Space


Antwort von Darth Schneider:

Also wenn mein bevorzugter Sanitär Handwerker nicht weiss was es genau zu tun gibt und was genau kaputt ist, im Freibad.
Dann kommt der erst mal mit dem Rennrad und hat genau mal gar kein Werkzeug dabei, höchstens ein Taschenmesser am Schlüsselbund, ja nicht mal Arbeitskleidung, nur sein Smartphone und ein Notizblock..;)
Gruss Boris

Space


Antwort von teichomad:

wie einfach jeder Iphone 13 Film panne ist

Space


Antwort von Jott:

Aber nur, wenn man vorher weiß, dass es ein iPhone-Film ist! :-)

War sogar schon vor fünf Jahren bei Tangerine so (iPhone 4?): beim Sundance-Screening hat's keiner gemerkt. Erst nachdem die Katze aus dem Sack gelassen wurde, fanden die Pixelpeeper den erfolgreichen Film plötzlich "Panne".

Es ist nun mal so: wenn Story/Regie/Kameraarbeit/Darsteller gut sind und man sofort eintauchen kann, haben Pixelpeeper verloren. Nur der Ton muss perfekt sein.

Space


Antwort von roki100:

https://www.youtube.com/watch?v=-lHo-owNjVk

Space



Space


Antwort von R S K:

teichomad hat geschrieben:
wie einfach jeder Iphone 13 Film panne ist
Wie man sieht. Ein wahrer Experte. 👍🏼

Space


Antwort von Darth Schneider:

Klar, das richtige Lut drauf, plus ein wenig mit anderen Tools womöglich sogar automatisch aneinander anpassen lassen…;)
Dann sieht das fast so aus wie vom iPhone…
Beeindruckend finde ich das allerdings nicht mehr wirklich.
Wer heute will kann doch einfach alle guten, aktuellen, Kameras wia App miteinander mischen, halt inklusive den Smartphones….
Das merken am Schluss höchstens Profis und einige Pixelpeeper den Unterschied.
Gruss Boris

Space


Antwort von roki100:

das sieht schon gut aus. Bei P4K ist standardmässig Lift angehoben, aber ansonsten unterscheidet sich das ja nicht viel (in Farben). Ist doch alles gleiche Auge bzw. Sony-Sensor IMX irgendetwas.

Wenn das jetzt schon so ist, wie wird später das iPhone 14 oder 15...? :)

Space


Antwort von Darth Schneider:

Und die nächste beziehungsweise übernächste Generation der BMD Pockets ?
Der riesige Schwanenhals bei den iPhones bleiben erst mal die zu kleinen Akkus, der begrenzte Speicher und bis heute auch noch die laschen Smartphone Apps….
Die ersten zwei Hürden sind bei den flachen Smartphones kaum zu überwinden.
Vor allem wenn dann 8oder 12K zum Standart werden die Hürden noch höher.
Gruss Boris

Space


Antwort von teichomad:

Die Schärfentiefe beim Iphone ist der hit. Hinken da alle Hersteller so hinterher wie Apple ? Die erste Aufnahme ist doch schon ein Armutszeugnis. Artefakte und digitale Bildschärfung wohin das Auge blickt, außerdem sau ruckeliges Bild. Scheint dezent überfordert das gute Stück. Die gute Farbgebung macht den Kohl dann leider auch nich mehr fett.

Space


Antwort von roki100:

@Boris
dann halt iPhone mit mehr Speicher. Linsen sind aber dabei. Bei P4K musst Du das dazu rechnen, inkl. viel weniger Akku... kein AF, Stabi etc. und groß wie Ziegel und man kann damit nicht telefonieren ;)
10Bit da lässt sich doch viel machen, siehe andere iPhone 13 Videos, da sind schon interessante Bilder dabei.
Und bei Apple sind die Apps (finde ich persönlich) super, stabil, läuft irgendwie flüssiger...

Space


Antwort von Darth Schneider:

Also ich filme eigentlich nie mit dem iPhone nie aus reiner Freude daran.
Eher weil ich irgendwas schnell aufnehmen muss.
Mit der Pocket jedenfalls aber schon.
Dabei spielen mir die genug Akkus die man braucht und der Formfaktor eigentlich überhaupt keine negative Rolle…;)
Mir macht das kleine Gefummel mit den Smartphones beim filmen mehr verkrampfte Finger als Spass…
Und die Apps mitsamt der Bedienung finde ich meistens einschränkend und mühsam.
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Also ich filme eigentlich nie mit dem iPhone nie aus reiner Freude daran.
das ist aber ein anderes iPhone, endlich ein gutes, mit echte 10Bit 422.

Ansonsten ja, ist Gewöhnungssache ob man nun echte Kamera oder so kleinen Ding in die Hände hält, was zählt ist doch das Ergebnis und das ist - in meinen Augen - nicht wirklich anders groß, da alles Sony Sensoren mit 10Bit ProRes...ähnlich wie bei andere große Kameras und dementsprechend lässt sich die bits genau so gut stylen.

Space


Antwort von Darth Schneider:

Natürlich sieht das gut aus.
Aber eben, ich habe iPhones seit dem iPhone 3.
10 Bit ProRes…Schon nett, aber das braucht zu viel Speicher auf dem armen Telefon. Wohin dann mit den Fotos, und all den Apps ?
Ich hatte genug Zeit mich umzugewöhnen, aber absolut keine Bock drauf.
Ich filme und fotografiere halt viel lieber mit grösseren Kameras, und mit echten Objektiven.
Das macht mir viel mehr Spass.
Und die Grösse oder das Gewicht ist bei meiner Cam gar kein Thema für mich.
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
Das macht mir viel mehr Spass.
das verstehe ich natürlich. Ist aber was anderes. Ich meinte, wenn es um das Ergebnis geht, ist iPhone 13 schon nicht schlecht. Lediglich das mit Artefakte die bei künstliche DoF entstehen können, ist etwas, was ich auch nicht toll finde, doch das wird sicherlich besser mit iOS updates, oder spätestens mit nächsten iPhone.

Ich finde das hat Zukunft und ich denke, dass es nicht lange dauern wird bis sich echte Cine in Smartphones durchgesetzt hat. Es sei denn, Kamerahersteller bringen phänomenale Dinge heraus, statt nur mehr sinnlose Ks. Die sind jetzt schon wegen all den Smartphones nach unten gerutscht...Und nur Profis bedienen, dadurch können die Kamerahersteller auch nicht lange überleben.

Space


Antwort von Darth Schneider:

Ich denke echtes, teures Kino wollen doch gar nicht viele Leute mit dem iPhone machen.
Das wird auch so bleiben.
Das wir doch immer nur eine Randgruppe bleiben.
Zu viele Franks sind doch da draussen, und nicht nur hinter der Kamera am Rec Knopf. Und die haben doch auch in Zukunft wenn die Smartphones womöglich mit 16 Bit filmen, immer noch gar keinen Bock auf Smartphone Kino.
Gruss Boris

Space


Antwort von roki100:

das sicherlich. Doch ob dadurch dann Kamerahersteller motiviert sind, weiter zu machen bzw. ob sich das dann für sie lohnt nur die ein paar Profis (betrachtet in der Menschenmenge) zu versorgen, ist eher fraglich. Und einfach nur Preise erhöhen, weil sie weniger verkaufen, bringt das auch nichts. Eher umgekehrt, günstige Produktion / auf eigenes verzichten (z.B. wie BMD das tut) dadurch haben die vll. Überlebenschancen.

Space


Antwort von Axel:

Man hat mich heute aufgefordert, ein paar Fotos von einer Adventsfeier zu machen für die Facebook-Seite meiner Einrichtung. Ich dachte, was soll's? Probier ich mal ganz unbedarft "Kino". Das ging rappzapp. Ich war höchstens 30 Minuten da und schoss 40 Clips. Ich dachte, Schande aber auch, bis die über Lightning in FCP sind wird aus Abend und Morgen der neue Tag. Aber nix da: die 1080 HEVC-Clips werden "in no time" übertragen (so zwischen 10 und 30 MB jeder). Die ursprüngliche Alptraumschilderung, die ich noch erinnerte, bezog sich auf ProResHQ in 4k, der blanke Irrsinn.

Dann dachte ich, schade, mit dem HLG kann ich keinem kommen, ich verliere die Dynamik schon beim Anlegen der Timeline. Tip: von HLG zu rec_709 mit den HDR-Tools.

Die Editierbarkeit von "Blende" (= Stärke des sDoFs) und des Fokuspunkts gehen verloren, sobald man Retiming benutzt. Es funktioniert aber, wenn man Retiming später anwendet.

Die Dynamik ist mit dieser Methode ziemlich gut. Am wenigsten videomäßig sieht es aus, wenn man die Tiefen mehr sättigt und die Höhen entsättigt:

zum Bild

Ja, ja, ich weiß, ziemlich grobschlächtig. Feiner ziseliert wäre es vielleicht in Resolve gegangen. Ich habe aber den Eindruck, dass das hier ideales Footage für FCP ist. Und der Export von 1 Minute fertigem Video? In Nullkommanix. Vielleicht 10 Sekunden.

Macht Spaß.

Space


Antwort von Jott:

iPhone nutzen, Cinema Mode nutzen, HEVC statt ProRes nutzen, in fcp schneiden, Farbpucks verwenden - darf man doch alles nicht als erwachsener Filmer. Du Quertreiber! :-)

Space


Antwort von cantsin:

roki100 hat geschrieben:
https://www.youtube.com/watch?v=-lHo-owNjVk
Tja, sieht prima aus, wenn man auf dem Smartphone oder anderen kleinen Bildschirmen betrachtet.

Auf einem Flatscreen-TV bzw. bei jeder größeren Bildanzeige lässt das iPhone-Bild dann doch zu wünschen übrig. BM Pocket 4K links, iPhone rechts:
01.jpg 02.jpg 03.jpg (Bilder anklicken und in voller Größe vergleichen.)

Sicher ist das Geschmackssache, aber die aggressive Bildglättung der Smartphones stößt mir dann doch sauer auf. Dabei wurde das Pocket 4K-Material nicht sonderlich kompetent gegradet. (Das ist natürlich ein Vorteil des iPhone - dass da dank dessen Algorithmen vernünftige Farben direkt aus dem Gerät kommen und keine LUT-Draufklatscher das Bild verhunzen.)

Space


Antwort von roki100:

Wenn man sich ganze Video anschaut, fehlt das kaum auf. Beides würde ich nicht als schlecht bewerten, sondern als; ja, kann man sich anschauen. Ich nehme mal an dass sich die wenige Fehler bei iPhone vermeiden lassen, wie z.B. das etwas ausgebrannte Gesicht (gibts auch ND Filter für iPhone 13)...außer das mit DoF wahrscheinlich noch nicht. Mit FilmicPro App geht da wahrscheinlich mehr/besser.

Space


Antwort von Axel:

@cantsin:
Ich sehe durchaus deinen Punkt. Mir gefiel die Pocket-Version gleich besser. Allerdings gibt es dafür - von der Glättung/Vermatschung, die du zu Recht erwähnst - zwei Gründe: erstens ist die Pocket halt eine Cinema-Kamera mit sehr (in dem speziellen Grading hier) gedämpfter Dynamik zu rec_709, während das iPhone den gegenteiligen Ansatz hat. Und der Vergleich war in SDR. Zweitens ist der Cinematic Mode natürlich in 1080, nicht in UHD.

Im Gegensatz zu einer handkameratauglich geriggten Pocket 4k hat ein iPhone jedenfalls den größeren Unbefangenheits-Bewahrungsfaktor. ootb ist die Color Science auch dermaßen goldglühend und menschlicher Haut schmeichelnd, dass es strategisch klug ist, den menschlichen Motiven mal kurz Aufnahmen von sich zu zeigen. Das erschließt in vielen Bereichen Möglichkeiten, die bisher aus verschiedenen Gründen nicht realisierbar waren.

Ich finde auch, dass der Name "cinematic mode" etwas irreführend ist. Wie andere bereits hervorhoben sind ja 30p keine Filmfrequenz. Auch die extremen Kontraste von "Dolbyvision" (HLG), die unbearbeitet übrigens nur auf HDR-Geräten gut aussehen, haben nichts Cinematisches an sich.

Aber eben auch nichts, was (wie mash weiter oben prophezeit) nach billigem Video aussieht. Der Filmlook wurde verfehlt, aber nicht unbedingt zum Nachteil.

Wie könnte das evolvieren? Zu 4k? 8k? Das wären glaube ich (wie oft) mal wieder die falschen Prioritäten. Auch ProRes oder Raw in einem Smartphone sind nicht das Wichtigste, seit wir 10-bit in HEVC haben. Ich denke, dass allgemein an Artefakt-Minderung gearbeitet werden muss, und das nicht nur im sDoF-Gradienten.

Space


Antwort von Jott:

„ hervorhoben sind ja 30p keine Filmfrequenz.“

Dann stell dein iPhone halt um - unter „Kamera“; 24 oder 25, was immer der filmende Europäer vorzieht. Geht schon seit einer Weile direkt ohne Filmic Pro.

Space


Antwort von Axel:

Jott hat geschrieben:
„ hervorhoben sind ja 30p keine Filmfrequenz.“

Dann stell dein iPhone halt um - unter „Kamera“; 24 oder 25, was immer der filmende Europäer vorzieht. Geht schon seit einer Weile direkt ohne Filmic Pro.
Nicht im "Kino"-Modus. Es wäre schön, wenn FiLMiC den mal aufgebohrt kriegte.

Space


Antwort von Jott:

Tatsächlich, gerade gesehen. Was ist das denn für ein Quatsch, wenn 25p eingestellt ist.

Kann eigentlich nur ein Bug oder ein blödes Versäumnis sein. Sinn macht das nicht, bei 24 oder 25 sollte es ja weniger zu rechnen geben als bei 30fps.

Space


Antwort von mash_gh4:

Axel hat geschrieben:
Auch ProRes oder Raw in einem Smartphone sind nicht das Wichtigste, seit wir 10-bit in HEVC haben. Ich denke, dass allgemein an Artefakt-Minderung gearbeitet werden muss, und das nicht nur im sDoF-Gradienten.
ja -- ich glaub auch das wirklich gutes h.265 bzw. AV1 bis hin zur lossless aufzeichnung am handy weit mehr sinn macht als RAW od. noch unsinniger ProRes.

allerdings gibt's halt zwei dinge, die ein wenig dagegen sprechen:

einerseits sind die eingriffe in die farbaufbereitung, die von den herstellern vorgenommen werden und z.t. einfach auch nur mehr der wiedererkennung bzw. markenbindung dienen, oft derart penetrant und kaum mehr rückgängig zu machen, dass diese an und für sich vernünftigeren aufzeichnungsvarianten vermutlich nicht reichen werden, um tatsächlich eine befriedigende besserung bzw. arbeitsbasis zu schaffen.

und daneben gibt's eben auch noch immer die tatsache zu berücksichtigen, dass man aus RAW-daten bei der späteren aufbereitung auf viel leistungsfähigerer hardware doch einiges herausholen kann, was in vertretbar wirtschaftlicher weise auf diesen ganz kleinen geräten mit ihrer beschränkten rechenleistung bzw. energieaufnahme in echtzeit einfach nicht hinzubekommen wäre. das war ja immer der eigentliche vorzug von RAW -- die aufzeichnung in wahrheit noch einfacher und billiger bzw. im bezug auf manche anforderungen überhaupt erst durchführbar realisieren zu können, und trotz dieser relativ primitiven unvollständigen direkten verarbeitung alle freiheiten bzw. notwendigen informationen für eine nachträgliche aufbereitung zu bewahren.

Space


Antwort von Axel:

Jott hat geschrieben:
Tatsächlich, gerade gesehen. Was ist das denn für ein Quatsch, wenn 25p eingestellt ist.

Kann eigentlich nur ein Bug oder ein blödes Versäumnis sein. Sinn macht das nicht, bei 24 oder 25 sollte es ja weniger zu rechnen geben als bei 30fps.
Wie gesagt, ich glaube an Absicht. Das einzige und oberflächliche Filmlook-Merkmal ist sDoF. Dynamik und Bewegungsauflösung sind qualitativ überlegen, lasst uns das einfach mal akzeptieren. Von rechts überholt.

Guck dir einfach mal zu 24p und SDR konvertierte „Kino“-Aufnahmen aus heller Umgebung (Belichtung wird ja über Zeit geregelt) an: mehr Videolook als vorher. Matt, ruckelig.

Space


Antwort von Funless:



Space


Antwort von teichomad:

Funless hat geschrieben:


krass. sieht ja aus wie mit einem handy gefilmt

Space


Antwort von R S K:

krass. sieht ja aus wie von einem armseligen wiederholungs-troll mit kaputter shifttaste geschrieben.

Space


Antwort von teichomad:

Noch ein verbitterter Apple Fanboy :)

Space


Antwort von j.t.jefferson:

Funless hat geschrieben:
sieht ganz schön furchtbar aus.

Space


Antwort von teichomad:

j.t.jefferson hat geschrieben:
Funless hat geschrieben:
sieht ganz schön furchtbar aus.
Das wurde aber mit dem Apfel phone 13 pro aufgenommen !!!! wie kannst du....

Space


Antwort von Darth Schneider:

Ich finde das sieht doch ziemlich gut aus.
Was denn genau findet ihr denn so furchtbar daran ?
Gruss Boris

Space


Antwort von Jott:

Wenn's aus einem Telefon kommt, muss es furchtbar sein. Reflexhafte Abwehrhaltung.

Dass man Rack Focus mit iPhone-Aufnahmen nachträglich in der Post "fahren" kann - via Keyframes in fcp, und mit regelbarer "Blende" - sollte einem zu denken geben. Und das ist ein Erstling, eine Fingerübung, mit noch zu geringer Auflösung des Tiefenscans. Mal schauen, ob die Leute in drei Jahren immer noch feixen.

Space


Antwort von teichomad:

Dieser Fokusshift ist affig und sieht auch genau so aus. Wieso nicht einfach nen ordentlichen lensmount ohne Mäuselinse zwischen objektiv und chip ?

Software Hokus Pokus

Space


Antwort von Jott:

teichomad hat geschrieben:
Wieso nicht einfach nen ordentlichen lensmount ohne Mäuselinse zwischen objektiv und chip ?
Hm. Vielleicht, weil's ein Telefon ist? :-)

Space


Antwort von Axel:

teichomad hat geschrieben:
Dieser Fokusshift ist affig und sieht auch genau so aus.
Shot transitions/Schärfeverlagerungen mögen ein auf Youtube überstrapaziertes und doofes Mätzchen sein. teichomad hat geschrieben:
Wieso nicht einfach nen ordentlichen lensmount ohne Mäuselinse zwischen objektiv und chip ?
Es geht hierbei nicht über die gute oder schlechte Qualität der Objektive. Die Größe des Chips ist hier natürlich eine physikalische Grenze für echten sDoF. teichomad hat geschrieben:
Software Hokus Pokus
Ob Software unter dem Gesichtspunkt der kreativen Ausdrucksmöglichkeiten gut oder schlecht ist, hängt wohl in erster Linie davon ab, inwieweit diese Software beeinflussbar ist. Das ist sie, wie oben erwähnt, in sehr hohem Maße, dadurch, dass sowohl die Schärfentiefe selbst als auch der Fokuspunkt in der Post festgelegt werden können. Eine andere Frage ist, ob das zum gegenwärtigen Zeitpunkt ästhetisch zufriedenstellt. Nun, gewiss nicht, wenn man es im Januar 2022 mit einer Vollformatkamera mit lichtstarken Objektiven vergleicht, die keine (oder sagen wir weniger) Korrekturen und Verschönerungen einbäckt (dafür aber den sDoF).

Space


Antwort von cantsin:

Tja, man kann bei Smartphone-Videografie zwei Wege gehen: den der computational photography/videography, den Apple hier geht, der aber für meinen Geschmack z.Zt. noch sehr überprozessiert aussehende, plastikmäßige Bilder zur Folge hat. Oder, wie jetzt neuerdings, den umgekehrten weg der Smartphone-Raw-Videografie, bei der für mich das erstaunliche ist, wie gut die optische Qualität der heutigen Kleinsensoren und -objektive auch ohne algorithmisches Hoch- und Schönrechnen ist.

(Hier mal ein eigenes kleines, Smartphone-Raw-Video:
https://vimeo.com/660540806

Space


Antwort von pillepalle:

Ich glaube was hier immer ein wenig durcheinander geht ist wo der Fortschritt in erster Linie stattfindet. Auf digitaler Ebene/Processing werden Systeme immer leistungsfähiger. Sie sind aber immer von der Qualität des Materials vor der digitalen Wandlung abhängig. Auf der analogen Seite sind immer noch (zumindest ab einem gewissen Niveau) hochwertige Komponenten nötig, um eine möglichst hohe Qualität des Ausgangsmaterials zu gewährleisten. Nach der Wandlung wird natürlich immer mehr möglich werden, aber es wird immer Unterschiede zwischen besserem und schlechterem Ausgangsmaterial geben.

Was jemand dann als gut genug betrachtet, steht dann auf einem anderen Blatt. Wenn wir irgendwann der Meinung sind das ein Smartphonesensor und dessen Optik für alle Anwendungen gut genug sei, dann braucht es die höhere Qualität auch nicht mehr. Aber es ist recht unwahrscheinlich das der Fall je eintreten wird, denn Leute die auf eine möglichst hohe Qualität wert legen wird es vermutlich immer geben. Und damit auch größere Formate, oder bessere Optiken. Aber für die breite Masse ist das Smartphone ja heute schon quasi das Mittel der Wahl.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Was jemand dann als gut genug betrachtet, steht dann auf einem anderen Blatt. Wenn wir irgendwann der Meinung sind das ein Smartphonesensor und dessen Optik für alle Anwendungen gut genug sei, dann braucht es die höhere Qualität auch nicht mehr.
Was Du übersiehst, ist die optische Leistung heutiger Smartphoneobjektive und -sensoren, die erstaunlich ist. Man merkt einfach, dass die Forschung und Entwicklung bei Sensoren und Objektiven sich in den letzten 15 Jahren auf dieses Segment konzentriert hat und was in den herkömmlichen Kameras landet, nur noch ein Abfallprodukt davon ist.

Space


Antwort von pillepalle:

@ cantsin

Eine ziemlich steile These :) Ich habe jedenfalls noch nie ein Bild mit so einer 'Wunderoptik' mit 'Wundersensor' zu Gesicht bekommen. Auch die Bilder der besten Smartphones bewegen sich immer noch Klassen unter denen der besten Kameras. Natürlich gibt es auch Fortschritte im Objektivbau, aber es ist nunmal ein schwer weg zu diskutierendes Argument, dass z.B. ein größerer Sensor immer Vorteile gegenüber einem kleineren haben wird. Die gleiche Technologie vorausgesetzt.

Vielleicht gibt es irgendwann neue Objektivtechnologien, die herkömmliche Optiken überflüssig machen. Aber einen Markt, der sich vom Massenmarkt der Mobilgeräte absetzt wird es trotzdem geben. Das ein Smartphone jemals die 'Krönung' der kreativen Schöpfung darstellt, oder niemand mehr etwas anderes braucht, werde ich und vermutlich die meisten hier im Forum wohl nicht mehr erleben.

VG

Space


Antwort von roki100:

also iPhone 13 Pro mit den drei Linsen ist schon klasse. Ich habe es mal ernsthafter getestet als nur draufhalten... mit Lichter und Diffusion filter vor der Linse gehängt, nachträglich die 10Bit etwas mit Teal&Orange (modifizierte M31) geschmückt und es sieht wirklich gut aus.

Space


Antwort von pillepalle:

roki100 hat geschrieben:
also iPhone 13 Pro mit den drei Linsen ist schon klasse. Ich habe es getestet, so wie ich auch normale Kamera benutzen mit Lichtsetzung, Diffusion filter davor gehängt, nachträglich die 10Bit etwas mit Teal&Orange (modifizierte M31) geschmückt und es sieht wirklich gut aus.
Ok, wenn Du das sagst, muss es ja stimmen. Umso besser, das iPhone ist auch viel günstiger als die Z9 :)

VG

Space


Antwort von roki100:

Niemals, Du weißt, die Z9 ist einfach etwas was man nicht widerstehen kann! Ständig muss man daran denken und bei YouTube auf neue erschienen Videos suchen und schauen... ;)

https://www.youtube.com/watch?v=4XFQQEsSVhA

Space


Antwort von pillepalle:

@ roki

Sei nicht immer so technikfixiert. Mit etwas Übung kriegt man das auch mit einem Smartphone hin.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
@ cantsin

Eine ziemlich steile These :) Ich habe jedenfalls noch nie ein Bild mit so einer 'Wunderoptik' mit 'Wundersensor' zu Gesicht bekommen.
Hier mal ein eigener, mittlerweile schon etwas älterer Test mit einem Google Pixel 5 gegen eine Fuji X-T4:
viewtopic.php?f=5&t=148642&p=1067598#p1068033
PXL_20201102_135151630.NIGHT-crop-center.png Pixel 5, 1:1-Crop, Bildmitte

_DSF2444-crop-center.png X-T4, 1:1-Crop, Bildmitte

PXL_20201102_135151630.NIGHT-crop-margin.png Pixel 5, 1:1-Crop, Bildrand

_DSF2444-crop-margin.png X-T4, 1:1-Crop, Bildrand

- Bilder in voller Auflösung gibt's beim o.g. Link.

Space


Antwort von roki100:

pillepalle hat geschrieben:
@ roki

Sei nicht immer so technikfixiert. Mit etwas Übung kriegt man das auch mit einem Smartphone hin.

VG
klar

https://www.youtube.com/watch?v=v5kI-A-DgCw

Space


Antwort von pillepalle:

@ cantsin

Ohne Dir zu nahe treten zu wollen, ist das sicher kein Beispiel für die Leistungsfähigkeit der Smartphones. Eher eines, dass man auch mit größeren Kameras suboptimale Ergebnisse erzielen kann, soweit das die Unterschiede gering sind.

VG

Space


Antwort von roki100:

https://www.youtube.com/watch?v=OIIJYHSQ8Pg

Space


Antwort von cantsin:

pillepalle hat geschrieben:
@ cantsin

Ohne Dir zu nahe treten zu wollen, ist das sicher kein Beispiel für die Leistungsfähigkeit der Smartphones. Eher eines, dass man auch mit größeren Kameras suboptimale Ergebnisse erzielen kann, soweit das die Unterschiede gering sind.
Und woran machst Du fest, dass das Ergebnis mit der X-T4 "suboptimal" ist? (Vom Stativ mit optimaler ISO und Blende fotografiert, mit einem guten Zoomobjektiv...)

Space


Antwort von pillepalle:

Die Bilder sind beide einfach schlecht. Und erklären zu wollen, dass dies das Maximum sei, was man aus einer Fuji X-T4 herausholen könne, nehme ich Dir beim besten Willen nicht ab. Ich habe selbst mal mit einer X-E2s fotografiert und selbst die war nicht so schlecht. Und alles worüber Du redest ist noch Pixi-Niveau, gemessen an dem was mit größeren Kameras heutzutage möglich ist.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Die Bilder sind beide einfach schlecht. Und erklären zu wollen, dass dies das Maximum sei, was man aus einer Fuji X-T4 herausholen könne, nehme ich Dir beim besten Willen nicht ab.
Falsch fokussiert? Falsch belichtet? Verwackelt? Wohl kaum.

Was Du wahrscheinlich als "schlecht" empfindest, ist, dass sie in RawTherapee ohne Entrauschung und Nachschärfung prozessiert sind. D.h. die Bilder sind so "schlecht", wie sie vom Sensor kommen, ohne nachträgliche Software-Aufhübschung.

Space


Antwort von pillepalle:

Ohne Softwarekorrekturen und mit einer Zoomoptik kommt das schon hin. Aber Du hast in dem Beispiel nicht nur die Hälfte der Auflösung der Fuji weg skaliert, sondern auch noch und ein Motiv gewählt, bei dem jede Kamera ein halbwegs brauchbares Ergebnis erzielt. Irgendwann sieht das dann auch alles irgendwie ähnlich aus, obwohl selbst unter den gezeigten Umständen der Unterschied noch recht deutlich ist. Mach mal eine Aufnahme gegen die Sonne, oder im Low-Light Bereich. Da zeigt sich die Qualität der Optik, oder des Sensors. Das sind einfach noch Welten die dazwischen liegen.

VG

Space


Antwort von cantsin:

pillepalle hat geschrieben:
Ohne Softwarekorrekturen und mit einer Zoomoptik kommt das schon hin. Aber Du hast in dem Beispiel nicht nur die Hälfte der Auflösung der Fuji weg skaliert, sondern auch noch und ein Motiv gewählt, bei dem jede Kamera ein halbwegs brauchbares Ergebnis erzielt. Irgendwann sieht das dann auch alles irgendwie ähnlich aus, obwohl selbst unter den gezeigten Umständen der Unterschied noch recht deutlich ist. Mach mal eine Aufnahme gegen die Sonne, oder im Low-Light Bereich. Da zeigt sich die Qualität der Optik, oder des Sensors. Das sind einfach noch Welten die dazwischen liegen.
Da bin ich ja mit Dir völlig d'accord. Nur umgekehrt wird eben auch ein Schuh draus: solange man eine Zielauflösung (bzw. ein Zielmedium) von 12MP oder weniger hat , nicht mehr als ISO 100-200 braucht und kein shallow depth of field, sowie mit den gebotenen Brennweiten auskommt, ist ein Smartphone adäquat und auch auf Pixelpeep-Ebene kaum von einer teuren Kamera zu unterscheiden; noch mehr sogar, wenn man sich nicht auf dessen internes, aufbrezelndes, für den Geschmack der Instagram- und TikTok-Generation optimiertes JPEG-Processing verlässt, sondern Raw aufzeichnet und mit Lightroom & Co. so wie auch seine normalen Kamera-Fotos prozessiert. (Wobei es Lightroom auch als gut funktionierende und Feature-vollständige Smartphone-App gibt.)

Wenn ich mit meinem Smartphone 2,7K-4K Raw-Video/CinemaDNG aufzeichne, ist die Bildqualität objektiv/technisch besser als bei meiner OG Pocket (die nicht nur weniger Sensorpixel hat, sondern auch starke Moiré-, Aliasing und IR Pollution-Probleme). Die wirkliche kreative Einschränkung sind das Fehlen von Wechselobjektiven, der Formfaktor, fehlende Anschlüsse etc.. Aber es ist schon sehr erstaunlich, was diese kleinen Sensoren und Linsen leisten.

Die Sensorgrößen heutiger Smartphones enstprechen ungefähr denen von alten Digi-Kompaktkameras - und nähern sich immer mehr den 1" von Edelkompakten wie der Sony RX100 oder dem alten Nikon 1-System an -, aber wenn ich das Bild eines heutigen Spitzen-Smartphones mit dem einer früheren Spitzen-Kompaktkamera wie z.B. aus der Canon Powershot G-Serie vergleiche, ist das ein qualitativer Quantensprung.

Space


Antwort von roki100:

das darf natürlich nicht fehlen!

1. iPhone 13 Pro (einfach klickfoto ohne Schnickschnack ) Bildschirmfoto 2022-01-04 um 13.39.21.png (sieht so plastisch aus...für print auf glänzendem Papier als Glückwunschkarte für Tante Renate)

2. G9 Bildschirmfoto 2022-01-04 um 13.59.33.png (sieht so gemütlich aus...)

3. super mini BMD Alexa Bildschirmfoto 2022-01-04 um 13.36.07.png (sieht so cinematisch aus... ;)) )


Und gewonnen hat? Ganz klar Nr.3! ;)
Bildschirmfoto 2022-01-04 um 14.04.55.png

Space


Antwort von pillepalle:

@ cantsin

Klar. Die Popularität der Smartphones liegt ja auch darin begründet , dass es für die meisten eben gut genug ist und man es immer dabei hat. Jede Kamera ist besser als keine. Und als Ergänzung, wofür auch immer, kann sie ja auch jeder nutzen der Lust dazu hat. Heute nutzt auch jeder mp3-Dateien ohne sich Sorgen über deren Qualität zu machen.

Aber jeder der auch nur ein Minimum an Ambition hat, dem sollte eben auch klar sein worin die Nachteile der Smartphones liegen und warum sie kurzfristig sicher keine größeren Kameras ersetzen werden. Etwas überspitzt gesagt, findet man auf Youtube auch Vergleiche zwischen einem iPhone und einer Alexa. Nur ernst nehmen sollte man die eben nicht.

VG

Space


Antwort von Darth Schneider:

Genau so wie jeder andere Vergleich doch irgendwo auch ziemlich sinnlos ist, denke ich.
Mit Arris und irgendwelchen (Consumer) Cams, oder auch mit günstigen Cine Kameras.
Bei den Autos vergleicht man ja schliesslich auch keinen Ferrari mit einem normalen Ford….
Auf YouTube was Kameras betrifft, vergleichen die Nerds sowas, ohne Ende.
Und anschauen fun es wahrscheinlich mehr oder weniger nur solche Leute die niemals mit einer Arri filmen….

Klar fahren tun alle Autos, und filmen können alle Kameras.;)
Gruss Boris

Space


Antwort von rush:

"Darth Schneider" hat geschrieben:

Bei den Autos vergleicht man ja schliesslich auch keinen Ferrari mit einem normalen Ford….

Gruss Boris
Weil der Ferrari ziemlich wahrscheinlich sogar verlieren würde wenn man alle Aspekte eines Fortbewegungsmittels mit einbezieht oder den Fokus eher auf Alltagstauglichkeit legt.

So gesehen ist das schon irgendwie auch nicht ganz abwegig... Der Ford ist womöglich weniger sexy und nicht so elegant und flott, hat aber den Kofferraum für die Getränke, Kinderwagen und entsprechend Platz für Frau und Kind bei moderaten Verbräuchen usw... Man kann das immer drehen und wenden wie es passt, der Ford kann da durchaus als Sieger hervorgehen :+)

Und so ist es mit den Mobiltelefonen ja in der Tat auch.

So klein meine RX100 auch ist - ich habe sie dennoch nicht täglich um den Hals hängen.
Das Telefon dagegen befindet sich in der Hosentasche.
Ob ich damit aber nun elementare oder relevante Aufnahmen ablichten würde? Ist 'ne andere Geschichte.

Wenn ich aber weiß das der Videomodus durchaus brauchbar ist, etwa für SloMo Gedöns kann man solch Geräte schon hier und da auch Mal als C-Cam in Betracht ziehen. Mit dem Nachteil daß man dann in der Zeit nicht telefonisch/medial erreichbar ist... Wobei: das kann ja sogar ein Vorteil sein ;-)

Apple geht da schon ziemlich voran in Sachen Video...
In der Androiden Welt gibt es auch tolle Geräte und Sensoren - aber softwaremäßig bekommen es manche Hersteller noch nicht so gut in den Griff worauf es beim Filmen eigentlich ankommt. Ich denke das auch hier die nächste bzw aktuell anrollende Generation mit eigenen Image Prozessoren aufschließen könnte mit der Apfel Vidoegrafie bzw. diese leichtfüßig überholen könnte wenn der Wille bestünde.

Space


Antwort von Darth Schneider:

Also mich beeindruckt am iPhone 13 Pro schon mal das äussere.
Es hat durchaus was sehr robustes und hochwertiges an sich.
Wenn ich es in der Hand halte fühlt sich das schon mal ganz anders an, als bei meinem Samsung, oder iPhone 11. Hochwertiger !
Der Screen ist knackscharf und scheint sehr hell. Es liegt (für ein Smartphone) sehr gut in der Hand.
Die Kameras machen auch einen sehr durchdachten, soliden Eindruck.
Gefilmt hab ich, fühlt sich gut an, wie mit einem kleinen (Sony) Camcorder.
Sehr scharf, stabilisiert, guter Autofokus, schöne (wie immer, etwas (Apple) bunte Farben).
Aber ich habe noch nix davon im Rechner.
Gruss Boris

Space


Antwort von pillepalle:

rush hat geschrieben:
So klein meine RX100 auch ist - ich habe sie dennoch nicht täglich um den Hals hängen.
Das Telefon dagegen befindet sich in der Hosentasche.
Ja. Nur ist es das was man möchte? Geglegenheitsfilme drehen? Was einem zufällig vor die 'Linse' kommt? Das ist doch eher die große Ausnahme.

Mich wundert es eh manchmal das den meisten 'Filmemachern' jeder Aufwand zu groß scheint, geplante Situationen nicht zu realisieren wären, zusätzliches Licht als 'One-Man-Band' ohnehin nicht geht, usw. Natürlich gibt es auch spezielle Bereiche wo das tatsächlich mal so sein kann, wie bei Hochzeiten und Events, oder bei Dokumentarfilmen. Aber das was selbst den 'Hobbyfilmer' vom normalsterblichen Handybenutzer unterscheiden sollte ist doch der, dass er etwas planvoller vorgeht und vielleicht auch etwas mehr Energie in die Sache steckt. Wo ist sonst der Unterschied?

VG

Space


Antwort von rush:

Nicht falsch verstehen: geplantes oder auch im HobbyBereich würde ich schon allein aus Spaß an der Filmerei eher weniger mit einem Handy umsetzen wollen.

Aber ich kann den Gedanken aus Sicht eines Filmemachers nachvollziehen der teilweise on Location direkt Momente einfangen möchte, sei es für Tests oder im Dok/Reportage Bereich an Tagen in denen man ggfs nur spottet ohne großes Besteck aber bspw. tolles Wetter hat.
Es gibt da sicher Situationen.

Leider wird diese Technik heute in der Tat aber immer häufiger als vollwertiger Kameraersatz gesehen - und das finde ich dann durchaus fragwürdig.

Space


Antwort von Axel:

roki100 hat geschrieben:
das darf natürlich nicht fehlen!

1. iPhone 13 Pro (einfach klickfoto ohne Schnickschnack )
Bildschirmfoto 2022-01-04 um 13.39.21.png
(sieht so plastisch aus...für print auf glänzendem Papier als Glückwunschkarte für Tante Renate)
Videos mit dem iPhone sind ja per Default in 10-bit HLG. Gedacht für das iPhone, gedacht als HDR (was Apple großkotzig Dolbyvision nennt, ist'n bisschen ähnlich wie die 500 DM Surroundanlage, die sich THX schimpfte, nachdem sich in den einmal ausgestatteten Kinos keine Lizenzen mehr verticken ließen). Betont farbenfroh, in LDR übersatt. Die Bilder darunter sind übermäßig gedämpftes LDR, mit unrealistisch zurückgenommenen Farben. Für LDR würde ich auf jeden Fall noch nachbearbeiten. Das muss gar nicht penibel Bild-für-Bild bzw. Clip-für-Clip sein, man kann sich ein Preset machen.

Space


Antwort von vaio:

pillepalle hat geschrieben:
rush hat geschrieben:
So klein meine RX100 auch ist - ich habe sie dennoch nicht täglich um den Hals hängen.
Das Telefon dagegen befindet sich in der Hosentasche.
Ja. Nur ist es das was man möchte? Geglegenheitsfilme drehen? Was einem zufällig vor die 'Linse' kommt? Das ist doch eher die große Ausnahme.

Mich wundert es eh manchmal das den meisten 'Filmemachern' jeder Aufwand zu groß scheint, geplante Situationen nicht zu realisieren wären, zusätzliches Licht als 'One-Man-Band' ohnehin nicht geht, usw. Natürlich gibt es auch spezielle Bereiche wo das tatsächlich mal so sein kann, wie bei Hochzeiten und Events, oder bei Dokumentarfilmen. Aber das was selbst den 'Hobbyfilmer' vom normalsterblichen Handybenutzer unterscheiden sollte ist doch der, dass er etwas planvoller vorgeht und vielleicht auch etwas mehr Energie in die Sache steckt. Wo ist sonst der Unterschied?

VG
Der Unterschied besteht darin, dass der ambitionierte Hobbyfilmer und Semi-Profi mindestens 5.000 Beträge bei Slashcam veröffentlicht hat. Da steckt er täglich seine ganze Energie rein... :-)

Space


Antwort von pillepalle:

vaio hat geschrieben:
Der Unterschied besteht darin, dass der ambitionierte Hobbyfilmer und Semi-Profi mindestens 5.000 Beträge bei Slashcam veröffentlicht hat. Da steckt er täglich seine ganze Energie rein... :-)
Keine Sorge. Soviel Energie kostet es mich nicht hier etwas zu posten. Sowas erledige ich nebenbei ;)

VG

Space


Antwort von vaio:

pillepalle hat geschrieben:
vaio hat geschrieben:
Der Unterschied besteht darin, dass der ambitionierte Hobbyfilmer und Semi-Profi mindestens 5.000 Beträge bei Slashcam veröffentlicht hat. Da steckt er täglich seine ganze Energie rein... :-)
Keine Sorge. Soviel Energie kostet es mich nicht hier etwas zu posten. Sowas erledige ich nebenbei ;)

VG
Du bist ja auch erst bei 4.843 Beiträge. 😉

Space


Antwort von Darth Schneider:

Ich finde der Kino Modus im iPhone 13 Pro, so beim spontan filmen in 4K, mit dem automatisch unscharfem Hintergrund einfach nur der Hammer…
Und der Autofokus ist dabei sogar auch noch sehr gut…
Das macht wirklich Spass.
Schon eine ziemlich krasse Ansage von Apple.
Und der LIDAR Scanner wo man Objekte, Räume, Lego Modelle ;) oder was auch immer in 3D Objekte scannen/umwandeln kann…
Ebenfalls einfach nur Hammer !
Hey, wir reden eigentlich immer noch von einem scheiss Telefon…
Go Apple…

Also zum einen witzigen Kino Film zu produzieren damit ?
Ich denke das ginge wahrscheinlich mittlerweile schon von der Bildqualität her ganz bestimmt.
Warum auch nicht…
Gruss Boris

Space


Antwort von roki100:

der Autofokus bzw. DoF (das was Apple Cinema nennt) wird auch von Lidar gesteuert.

Space


Antwort von Axel:

Es ist nicht so, dass man in FCP nicht den einen oder anderen WB-Stich aus iPhone-HLG entfernen könnte und darum Resolve bräuchte ...

... es geht hier mehr um eine gelegentliche Nutzung von iPhone 13 Footage in Kombi mit XAVC-Slog3, hier auch angerissen.

Space


Antwort von R S K:

Axel hat geschrieben:
als HDR (was Apple großkotzig Dolbyvision nennt…
Soll was genau heißen? Was aufgezeichnet wird ist Dolbyvision, Punkt. Keine Ahnung was da „großkotzig” sein soll. 🙄

Space


Antwort von Axel:

Hab früher immer iPhone iPhone sein lassen, aber mit dem 13er sehe ich mehr Potential. Jedenfalls sieht das HDR sehr gut aus.

Space


Antwort von R S K:

Die Kamera ist momentan auch faktisch die einzige Kamera, ob Telefon oder nicht, die du kaufen kannst die mit Dolby Vision aufzeichnet, ja. Ich denke auch nicht, dass es irgendein anderer Smart Phone Hersteller das in absehbarer Zeit, wenn überhaupt jemals, wird nachmachen bzw. anbieten können.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen //


iPhone 13 Pro im Praxistest: 10 Bit Kinomodus (Cinematic Mode) im Vergleich, Hauttöne uvm.
Rode Wireless Go II an iPhone funktioniert nicht
Filmmaker Mode jetzt auf Samsung Fernsehern per Firmware Update verfügbar
FX6 im Cine EI Mode 12800 ASA Slog3
Filmmaker Mode für Fernseher soll sich an Umgebungslicht anpassen
Neue Razer Blade 16 und 18 Notebooks: Dual-Mode Mini-LED-Display und Desktop-Ersatz
Messmodus Lichter / Metering mode Highlights - Sony A7Rii Playmemories
Wie in Clamshell Mode starten?
Pika 2.1 Update und Director Mode in Hailuo
GH5 MKII - wie funktioniert das mit der Streaming-Funktion?
Sony A1 mit XLR Griff der FX3 - funktioniert
Umstieg von Windows auf Mac - funktioniert der Dongle?
Samsung: Cinematic 4K-Ultrakurzdistanz-Projektor
"cinematic" - Nein Danke!
ARTE - Making Waves: The Art of Cinematic Sound
Making Waves: The Art of Cinematic Sound
SIGMA fp L - Cinematic Look
(SUCHE) DaVinci Resolve Cinematic Luts Pack




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash