Logo Logo
/// 

iPhone 13 Pro



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Frage von Nathanjo:


Also das Material, was so stolz mit Kathryn Bigelow und Greg Fraser beworben wurde, fand ich jetzt optisch nicht so toll oder "cinematic" - und das will schon was heißen, schließlich sahen iPhone Videos nie schlecht aus. Muss am Grading oder der FramerateFramerate im Glossar erklärt gelegen haben. Also wie das jetzt das "Kino revolutionieren soll" sei mal dahingestellt...

Aber: Wenn das Post-Pro Bokeh einigermaßen vernünftig ist (inkl. Rack ZoomZoom im Glossar erklärt in der Post), dann wär das mit ProResProRes im Glossar erklärt Ausgabe echt ne richtig coole Sache für die Hosentasche. Schade, dass ich Android-Nutzer bin und absolut kein iPhone brauchen kann.



Antwort von iasi:

Schon beeindruckend, was mittlerweile technisch möglich ist und eben auch geboten wird.

4k ProResProRes im Glossar erklärt von einem Telefon mit gleich 3 Kameras inkl. Stabilisierung.



Antwort von Jott:

Scheiß auf Kino. Wenn das mit dem Fokusspiel so funktioniert wir demonstriert - ohne auffallende ArtefakteArtefakte im Glossar erklärt - dann ist das als allgemeine Hosentaschen-B-Cam ein must have.








Antwort von slashCAM:


Apple hat die neue iPhone Generation vorgestellt, und die Gerüchte haben sich als erstaunlich zutreffend bewiesen - eine wesentliche Rolle bei den Neuerungen kommt der V...



Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
Apple iPhone 13 Pro ist offiziell mit ProRes-Aufnahme auf bis zu 1 TB Speicher




Antwort von Axel:

1100 Öre für ein Pro? Das werd ich wohl machen. 120Hz Schirm ist schon 'ne tolle Sache, hab mir heute zum ersten Mal live das iPad Pro mit diesem Feature im Shop angeguckt. Und die Makro-Weitwinkel-Kamera könnte mir das ersetzen (wir rechtfertigen uns einen Luxuskauf zurecht, darin bin ich gut).

ProRes erstaunt mich echt. Es ist auf dem M1 nicht mehr performanter als H.264, ja, kaum noch als H.265. Es wird langsamer gerendertgerendert im Glossar erklärt, ein paar Reviewer bemerken es, schütteln den Kopf und reden weiter. Das ist schon ein gewaltiger Paradigmenwechsel. Und jetzt auf einem Telefon? Klingt 'n bisschen wie, Ihr E-Bike fährt jetzt auch mit Diesel ...



Antwort von Funless:

Hmmm … ich will Ende des Jahres mein 7 Plus in Rente schicken … Blick jetzt aber nicht ob das 13 Pro jetzt die Bildschirmgröße des 7 Plus hat oder das 13 Pro Max.

Weil kleiner würde ich nicht wollen ..

EDIT:
Tante Google hat meine Frage beantworten können. Mein 7 Plus hat 5,5“ und das 13 Pro 6,1“ … passt.



Antwort von cantsin:

Ehrlich gesagt finde ich den Demofilm grässlich aussehend:

https://www.youtube.com/watch?v=8Tl1RL8MRCA&t=13s

Die Bilder sind so überprozessiert , dass man denkt, der ganze Film sei ein Computerrendering. (Und schon im Demofilm nerven die Fokusverlagerungen als überreiztes Gimmick.)

Ich bin ja für Smartphone-Videografie. Aber die Richtung, die da beim computational imaging (bzw. der KI-Prozessierung) eingeschlagen wird, gefällt mir geschmacklich-ästhetisch überhaupt nicht.

Im Prinzip kriegt man hier eine ganz bestimmte Bildästhetik von Softwareentwicklern aufgedrückt. Im Endeffekt ist das nicht viel anders, als die Bild-Verschlimmbesserungenalgorithmen von Flatscreen-TVs. Es orientiert sich auch am selben Geschmack bzw. denselben Sehgewohnheiten.

Wenn das die zukünftige Norm bei direkt-aus-der-Kamera-Video wird, wird Raw-Video zur letzten Rettung...



Antwort von iasi:

cantsin hat geschrieben:
Ehrlich gesagt finde ich den Demofilm grässlich aussehend:

https://www.youtube.com/watch?v=8Tl1RL8MRCA&t=13s

Die Bilder sind so überprozessiert , dass man denkt, der ganze Film sei ein Computerrendering. (Und schon im Demofilm nerven die Fokusverlagerungen als überreiztes Gimmick.)

Ich bin ja für Smartphone-Videografie. Aber die Richtung, die da beim computational imaging (bzw. der KI-Prozessierung) eingeschlagen wird, gefällt mir geschmacklich-ästhetisch überhaupt nicht.

Im Prinzip kriegt man hier eine ganz bestimmte Bildästhetik von Softwareentwicklern aufgedrückt. Im Endeffekt ist das nicht viel anders, als die Bild-Verschlimmbesserungenalgorithmen von Flatscreen-TVs. Es orientiert sich auch am selben Geschmack bzw. denselben Sehgewohnheiten.

Wenn das die zukünftige Norm bei direkt-aus-der-Kamera-Video wird, wird Raw-Video zur letzten Rettung...
Das Video soll die neue Unschärfenfunktion demonstrieren.
Klar ist das Weitwinkelbild nicht gerade geeignet für Kino-Look, aber so schlecht finde ich das - eben auch auf Übertreibung angelegte - Video nicht.

Das Tele wurde schließlich nicht genutzt, was sich ja eigentlich für diese Nah-Einstellungen angeboten hätte. Aber man wollte ja das neue Fokus-Gimmik zeigen.



Antwort von SeenByAlex:

Die ganze ProResProRes im Glossar erklärt Geschichte ist als B (oder eher C) - Cam im Profibereich nur von Bedeutung, wenn man endlich die üble Nachschärfung deaktivieren kann. Das ging bisher nichtmal mit Filmic Pro…

So sind die Aufnahme gerade zum Mischen mit anderen Material leider relativ unbrauchbar.



Antwort von iasi:

SeenByAlex hat geschrieben:
Die ganze ProResProRes im Glossar erklärt Geschichte ist als B (oder eher C) - Cam im Profibereich nur von Bedeutung, wenn man endlich die üble Nachschärfung deaktivieren kann. Das ging bisher nichtmal mit Filmic Pro…

So sind die Aufnahme gerade zum Mischen mit anderen Material leider relativ unbrauchbar.
Es sind aber eben auch immer noch Telefone.

Es muss schon gute Gründe geben, weshalb man ein Smartphone als A, B oder C Cam einsetzt.



Antwort von Fader8:

SeenByAlex hat geschrieben:
Die ganze ProResProRes im Glossar erklärt Geschichte ist als B (oder eher C) - Cam im Profibereich nur von Bedeutung, wenn man endlich die üble Nachschärfung deaktivieren kann. Das ging bisher nichtmal mit Filmic Pro…

So sind die Aufnahme gerade zum Mischen mit anderen Material leider relativ unbrauchbar.
Du sprichst mir aus der Seele.



Antwort von teichomad:

Besitze ein Google PixelPixel im Glossar erklärt 5 und hatte gestern das aktuelle Iphone in der Hand. Das Gewicht ist absolut inakzeptabel. Ohne Gürtel reißts dir die Hose von Leib. Unverständlich wie man so einen Klotz releasen kann. Das hat Apfel mal besser gekonnt.








Antwort von Jott:

Eine dreistellige Millionenzahl von verkauften iPhone 12 im letzten Jahr spricht alles in allem doch für eine recht hohe Qualität und Tragfähigkeit von gängigen Hosen und Gürteln. Bedenklich ist allerdings die immer häufigere Überlastung des Telefonierarmes. Für solch hohe Gewichte wie bei iPhones ist unsere Muskulatur einfach nicht ausgelegt. Hinzu kommen auffallende Fehlstellungen der Wirbelsäule durch die einseitige Gewichtsbelastung. Ärzte empfehlen, die Hosentaschen-Trageseite täglich zu wechseln.



Antwort von rush:

teichomad hat geschrieben:
Besitze ein Google PixelPixel im Glossar erklärt 5 und hatte gestern das aktuelle Iphone in der Hand. Das Gewicht ist absolut inakzeptabel. Ohne Gürtel reißts dir die Hose von Leib. Unverständlich wie man so einen Klotz releasen kann. Das hat Apfel mal besser gekonnt.
Ich bin gewiss kein IPhone Fan - aber 2 Tafeln Schokolade kann man doch problemlos transportieren zumal Apple immerhin bei moderaten 6.1" für das "normale Pro" Model (203g) bleibt- damit rutscht es doch leichter in die Hosentasche als so manch anderes Phablet jenseits der 6,5".

Ich würde mir von Samsung, Xiamoi und Co gern wieder normalgroße Geräte um 6" wünschen bei denen man nicht auf Leistung verzichten muss. In der Hinsicht ist Apple schon irgendwie besser aufgestellt - und bietet das Max Pro als Ergänzung für Menschen mit riesigen Pranken.
Es gab Zeiten da galten 7" als Tablet.. mittlerweile kratzen viele Smartphones bereits an dieser Grenze.



Antwort von shellbeach:

Wie groß sind eigentlich die Kamera-Sensoren?



Antwort von shellbeach:

shellbeach hat geschrieben:
Wie groß sind eigentlich die Kamera-Sensoren?
wenn der Pixelabstand 1,9 ?m ist, müsste es 1/1,7" sein - wenn ich richtig informiert bin.



Antwort von -paleface-:

cantsin hat geschrieben:
Ehrlich gesagt finde ich den Demofilm grässlich aussehend:

https://www.youtube.com/watch?v=8Tl1RL8MRCA&t=13s

Die Bilder sind so überprozessiert , dass man denkt, der ganze Film sei ein Computerrendering. (Und schon im Demofilm nerven die Fokusverlagerungen als überreiztes Gimmick.)
Ich finde das sieht aus wie ein Werbefilm. Aber im positiven gemeint.
Ich vermute mal es ist mir 30fps gefilmt.
Wenn die Kamera nen 24/25p Modus hat dürfte es kein Problem sein komplette Produktionen damit zu stemmen die filmisch aussehen.
Kleine Imagefilme, Dokus oder Kurzfilme.

Werde mir dennoch kein IPhone holen.



Antwort von Frank Glencairn:

-paleface- hat geschrieben:

Wenn die Kamera nen 24/25p Modus hat dürfte es kein Problem sein komplette Produktionen damit zu stemmen die filmisch aussehen.
Die Frage ist doch eher, warum sich das jemand antuen sollte - vom PR-Gimmick Faktor mal abgesehen, aber der ist seit Soderbergh sowieso schon durch.



Antwort von Mediamind:

Ganz ehrlich, ich bin beeindruckt. Privat habe ich immer wieder eine DJI Pocket 2 im Einsatz. Ausgeleiert aber wahr, die beste Kamera ist die .... naja, den Rest kennt Ihr ja. EIn Telefon hat man immer dabei. Meine bessere Hälfte ist gestern aus Berlin zurück und hat mit dem 12ProPlus sehr schöne Aufnahmen der aktuellen Lichtinstallationen gemacht. Einfach so, nachts, mit einem Telefon....
Das neue iPhone wird kein Produktionsmittel für kommerzielle Aufträge sein können. Aber mal eben genutzt... Daraus ergeben sich immer mehr Möglichkeiten. Und wenn es BTS Material ist.



Antwort von funkytown:

Mediamind hat geschrieben:
Das neue iPhone wird kein Produktionsmittel für kommerzielle Aufträge sein können. Aber mal eben genutzt... Daraus ergeben sich immer mehr Möglichkeiten. Und wenn es BTS Material ist.
So sehe ich das auch. Die beste Kamera ist halt die, die man gerade dabei hat. Ist doch mega, dass man als Filmemacher praktisch immere eine Kamera dabei hat.



Antwort von teichomad:

-paleface- hat geschrieben:
cantsin hat geschrieben:
Ehrlich gesagt finde ich den Demofilm grässlich aussehend:

https://www.youtube.com/watch?v=8Tl1RL8MRCA&t=13s

Die Bilder sind so überprozessiert , dass man denkt, der ganze Film sei ein Computerrendering. (Und schon im Demofilm nerven die Fokusverlagerungen als überreiztes Gimmick.)
Ich finde das sieht aus wie ein Werbefilm. Aber im positiven gemeint.
Ich vermute mal es ist mir 30fps gefilmt.
Wenn die Kamera nen 24/25p Modus hat dürfte es kein Problem sein komplette Produktionen damit zu stemmen die filmisch aussehen.
Kleine Imagefilme, Dokus oder Kurzfilme.

Werde mir dennoch mein IPhone holen.
was genau passiert da bei 00:21 ? übertriebener Warp stab am stuhl, plötzlich andere Farbgebung, ruckeliger Fokus. Für ein Handy trotzdem nicht schlecht auch wenn etwas zu viel Fokus auf die nicht ganz so smoothe schärfenverlagerung gelegt wurde, komischer weise. Für Apple Fanboys reichts.








Antwort von Axel:

Diese Shot TransitionShot Transition im Glossar erklärt „Film“-Szene richtet sich wohl weniger an Roger Deakins und noch nicht einmal an slashCAM-DOPs. Sie richtet sich an Leute, die regulär ihr stets mitgeführtes Smartphone für Videoschnappschüsse oder auch für kurze Sequenz-Skizzen benutzen. Auf dem typischen Smartphone-Schirm selbst sehen diese Videos und auch Fotos sehr gut aus. Ideal auch für die üblichen asozialen Netzwerke. Für den Urlaub, wo man die Clips beim Warten im Abfluggate mit iMovie schneidet. Da ist ProResProRes im Glossar erklärt total fehl am Platz. Nebenbei gesagt frage ich mich, wie das technisch gehen soll, dass man den Fokus im Nachhinein festlegen kann. Das geht doch wieder eigentlich nur mit absoluter Schärfentiefe, bei der KI nachträglich den Kommissar vorne ausstanzt, was bisher ja mehr schlecht als recht geklappt hat, selbst nur bei Fotos.
Schade, dass man Pro haben muss, um 120Hz zu kriegen, 6,1“ wären ideal, und die versprochene Akkuzeit ist auch gut.



Antwort von rush:

Das eigentliche Highlight im 13er iPhone LineUp ist für mich persönlich das 13er Mini - mit kompakten 5,4" Display und leichten 140g.

Bis auf den Akku scheint es ansonsten ja quasi identisch zum normalen 13er Non-Pro ausgestattet zu sein. Nice.

Xiaomi, Samsung und Co: Bitte Mal eine Scheibe davon abschneiden und ein wirklich kompaktes, gut ausgestattetes Modell bringen!

Dafür gehen zwei Daumen nach oben das Apple das Mini weiterhin pflegt.



Antwort von Frank Glencairn:

Axel hat geschrieben:
Nebenbei gesagt frage ich mich, wie das technisch gehen soll, dass man den Fokus im Nachhinein festlegen kann. Das geht doch wieder eigentlich nur mit absoluter Schärfentiefe, bei der KI nachträglich den Kommissar vorne ausstanzt...
Genau so funktioniert das tatsächlich, was bei dem Sensor und der Optik eigentlich ja auch nicht anders zu erwarten ist.
Ich denke da werden die Tiefeninformationen als Metadaten mitgespeichert, und dann drauf zurückgegriffen.



Antwort von Mediamind:

teichomad hat geschrieben:
-paleface- hat geschrieben:


Ich finde das sieht aus wie ein Werbefilm. Aber im positiven gemeint.
Ich vermute mal es ist mir 30fps gefilmt.
Wenn die Kamera nen 24/25p Modus hat dürfte es kein Problem sein komplette Produktionen damit zu stemmen die filmisch aussehen.
Kleine Imagefilme, Dokus oder Kurzfilme.

Werde mir dennoch mein IPhone holen.
was genau passiert da bei 00:21 ? übertriebener Warp stab am stuhl, plötzlich andere Farbgebung, ruckeliger Fokus. Für ein Handy trotzdem nicht schlecht auch wenn etwas zu viel Fokus auf die nicht ganz so smoothe schärfenverlagerung gelegt wurde, komischer weise. Für Apple Fanboys reichts.
Oh bitte nicht die Fanboydiskussion. Das lebt von Unterstellungen und ist abgedroschen. Die Richtung, sie wissen nicht was sie tun und zahlen dafür (jeden) Preis macht doch keinen Sinn. Man hätte das mit einer FX6, Alexa, Blackmagic Ursa Mini Pro,... besser drehen können. Aber Leute, wir reden von einem Telefon. Ok, es ist mehr als das und niemand wird am Set mit einem iPhone aufschlagen.



Antwort von cantsin:

Wenn ich's nochmal in deutlicherer Sprache schreibe: Das sind IMHO grauenhafteste Zombie-Bilder:
mpv-shot0001.png mpv-shot0002.png (Anklicken für vergrößerte Ansicht)


Ist mir wirklich schleierhaft, wie man es einen Fortschritt finden kann, wenn Kamerabilder jetzt durch die algorithmische Aufbrezelung wie schlechte Videospiele aussehen.

Wer so etwas goutiert, hat überhaupt kein ästhetisches Empfinden und keinen Geschmack mehr. Das ist richtiger Proll-Trash, wie Kleidung von Rudis Resterampe.



Antwort von maiurb:

Abgesehen von der Technik, schon krass wie klobig die Kameramodule aus dem Gehäuse schauen.
Eine Hülle ist Pflicht damit es nicht wackelt, wenn es auf dem Tisch liegt und dann trägt das Teil extrem dick auf.



Antwort von teichomad:

maiurb hat geschrieben:
Abgesehen von der Technik, schon krass wie klobig die Kameramodule aus dem Gehäuse schauen.
Eine Hülle ist Pflicht damit es nicht wackelt, wenn es auf dem Tisch liegt und dann trägt das Teil extrem dick auf.
Man könnte sich auch mit einer Oberfräse ein gleich großes Loch in seinen Schreibtisch werkeln, dann passts wieder ;)



Antwort von maiurb:

teichomad hat geschrieben:
maiurb hat geschrieben:
Abgesehen von der Technik, schon krass wie klobig die Kameramodule aus dem Gehäuse schauen.
Eine Hülle ist Pflicht damit es nicht wackelt, wenn es auf dem Tisch liegt und dann trägt das Teil extrem dick auf.
Man könnte sich auch mit einer Oberfräse ein gleich großes Loch in seinen Schreibtisch werkeln, dann passts wieder ;)
Dann solltest du die Fräse aber auch immer dabei haben. Es gibt viele Schreibtische...



Antwort von Frank Glencairn:

Da bekommt der Begriff "Taschenfräse" doch gleich ne ganz neue Bedeutung :P








Antwort von medienonkel:

https://www.shapertools.com/de-de/

Damit das Loch immer gleichmäßig und professionell wird... (auch weil eine Oberfräse gefühlt teurer als ein Telefon sein sollte)



Antwort von R S K:

Nathanjo hat geschrieben:
Wenn das Post-Pro Bokeh einigermaßen vernünftig ist
Ist 1:1 das gleiche wie bei den bereits existierenden Portrait Fotos.

Nathanjo hat geschrieben:
(inkl. Rack ZoomZoom im Glossar erklärt in der Post)
😂… das mit Sicherheit nicht. Auch wenn es zugegebenermaßen dank LiDAR gehen könnte, also… noch nicht? 🤷🏼??? Aber das geht momentan nicht mal bei den Fotos.

Was du allerdings wirst bearbeiten können (auch da wieder, wie bei den Fotos) ist die "Blende", also die Stärke der Unschärfe. Übrigens mit sowohl Final Cut Pro als auch iMovie. Dass das allerdings (wie bei den Fotos) nur begrenzt ausreizbar sein wird denke ich wird jeder der es mit seinen Fotos bereits hat schon genau wissen. Also Kirche und Dorf und so… aber die unsachliche Häme wird natürlich trotzdem nicht ausbleiben wenn es soweit ist. Alle werden es auf Maximum drehen und schreien was das für ein MIST ist! 🙄

Mir darf aber auch gerne mal jemand erklären wie das in ProRes drehen irgendwie mehr ist, als nur ein PR Gimmick. Welchen Vorteil (und nicht Nachteil) könnte ich haben gegenüber dem Aufzeichnen im bereits vorhandenen Dolby Vision/HEVC? Die Qualitätsfrage bei TELEFON Videos war meines Wissens noch nie eine Frage des CODECS. Was also soll ProResProRes im Glossar erklärt da jetzt bringen… außer völlig unnötig volle Telefonspeicher (und das Gefühl, trotz Telefonkamera, voll der "Pro" zu sein)?? 🤨

- RK



Antwort von funkytown:

"R S K" hat geschrieben:
Was also soll ProResProRes im Glossar erklärt da jetzt bringen… außer völlig unnötig volle Telefonspeicher (und das Gefühl, trotz Telefonkamera, voll der "Pro" zu sein)?? 🤨
Der Sinn hat sich mir auch nicht erschlossen. Für Ottonormal Iphone Nutzer nur hinderlich, für Profis uninteressant weil man das iPhone nicht wirklich als Arbeitsgerät nutzt.



Antwort von cantsin:

Interessant wäre ProResProRes im Glossar erklärt nur dann, wenn es in Verbindung mit einem Log-Profil und weitgehend ohne Bildprozessierung/-aufbrezelung aufgezeichnet würde, dann aber sinnvollerweise mit einem Bildkorrekturprofil für FCPX & Co., mit dem sich die Korrekturen am besten händisch dosieren lassen.

Wenn auf diese Weise auch die Rauschfilterung deaktiviert bzw. in die Post verlagert würde, wäre ProResProRes im Glossar erklärt als Breibandcodec dafür sogar eine halbwegs logische Lösung (statt nur ein Marketingargument).

Allerdings bleibt die Beschränkung auf HD dann ein Flaschenhals, auch für nachträgliche Geometriekorrekturen und Stabilisierung.

Vielleicht ist es ja eher ein Early Adopter-Feature, das erst in zukünftigen iPhone-Generation wirklich sinnvoll wird....



Antwort von R S K:

funkytown hat geschrieben:
für Profis uninteressant weil man das iPhone nicht wirklich als Arbeitsgerät nutzt.
Ähm, ich nutze das iPhone sehr wohl und oft als Arbeitsgerät und kenne sehr viele die es tun, da es Möglichkeiten, Einstellungen etc. bietet die du sonst nirgends bekommst oder nur mit erheblich größerem Aufwand. Mit der ewigen "Profi" Selbstprofilierung hat das überhaupt nichts zu tun. 🙄 Ein "Profi" benutzt das was den Job am besten erledigt. Ja, und wenn das ein Telefon ist… und?

Der Punkt war, dass ich nicht wüsste was mir Aufnahmen in ProResProRes im Glossar erklärt bringen sollen, außer vielleicht das 10+-fache an Daten. Bei einem Sensor kleiner als mein Fingernagel ist der CODEC, insofern wir nicht gerade von Cinepak oder ähnlichem reden, nicht wirklich das Problem.

cantsin hat geschrieben:
Interessant wäre ProResProRes im Glossar erklärt nur dann, wenn es in Verbindung mit einem Log-Profil und weitgehend ohne Bildprozessierung/-aufbrezelung aufgezeichnet würde, … etc. etc.
Ach so. Und man braucht für irgendwas davon zwingend ProRes? Weil? Sowas geht irgendwie NICHT mit HEVC oder sonst einem Codec? 😒

Und wir vergessen scheinbar auch gerne, dass wir noch immer von einem Telefon sprechen. Ist das denn nun "voll Noobie" oder plötzlich doch "Profi", wenn hier schon Dinge wie "Log-Profile", "Rauschfilterung deaktivierung" und "Bildkorrekturprofil" verlangt werden? Scheint sich keiner so recht entscheiden zu können. Tagesform wohl.

- RK



Antwort von cantsin:

"R S K" hat geschrieben:
cantsin hat geschrieben:
Interessant wäre ProResProRes im Glossar erklärt nur dann, wenn es in Verbindung mit einem Log-Profil und weitgehend ohne Bildprozessierung/-aufbrezelung aufgezeichnet würde, … etc. etc.
Ach so. Und man braucht für irgendwas davon zwingend ProRes? Weil? Sowas geht irgendwie NICHT mit HEVC oder sonst einem Codec? 😒
Wenn Du mit HEVC ein Videosignal ohne Rauschfilterung aufnimmst, landest Du bei ähnlichen Datenraten wie bei ProRes. Aber bei ProResProRes im Glossar erklärt geht das immerhin mit weniger Prozessorlast als bei HEVC (da man praktisch sicher davon ausgehen kann, dass die heutigen Apple-Chips noch keine HEVC-Unterstützung mit derart hohen Bitraten eingebaut haben).

Und wir vergessen scheinbar auch gerne, dass wir noch immer von einem Telefon sprechen. Ist das denn nun "voll Noobie" oder plötzlich doch "Profi", wenn hier schon Dinge wie "Log-Profile", "Rauschfilterung deaktivierung" und "Bildkorrekturprofil" verlangt werden?
Lächerlich machst nur Du Dich. - Ansonsten: was Du "ein Telefon" nennst, ist ein Kleincomputer mit mehr Rechenleistung als jede marktübliche Kamera.



Antwort von R S K:

cantsin hat geschrieben:
Lächerlich machst nur Du Dich.
Hach ja. Und schon sind wir wieder bei dem hier (und von dir) üblichen ad hominem Geblöke wenn sich jemand in seiner „Profiehre” irgendwie beschmutzt fühlt. Bravo.

cantsin hat geschrieben:
Ansonsten: was Du "ein Telefon" nennst, ist ein Kleincomputer mit mehr Rechenleistung als jede marktübliche Kamera.
Genau. Und wie wir wissen, macht die Rechenleistung den Sensor. 👍🏼



Antwort von dienstag_01:

Wenn Du mit HEVC ein Videosignal ohne Rauschfilterung aufnimmst, landest Du bei ähnlichen Datenraten wie bei ProRes. H264/5 haben selber eine Rauschfilterung, die lassen das Rauschen bei geringer Daenrate nämlich einfach weg.
Du beziehst dich hier auf einen Spezialfall (Rauschen unbedingt erhalten), der für Kameras eher keine Relevanz haben dürfte.



Antwort von Nathanjo:

"R S K" hat geschrieben:
Nathanjo hat geschrieben:
Wenn das Post-Pro Bokeh einigermaßen vernünftig ist
Ist 1:1 das gleiche wie bei den bereits existierenden Portrait Fotos.

Nathanjo hat geschrieben:
(inkl. Rack ZoomZoom im Glossar erklärt in der Post)
😂… das mit Sicherheit nicht. Auch wenn es zugegebenermaßen dank LiDAR gehen könnte, also… noch nicht? 🤷🏼??? Aber das geht momentan nicht mal bei den Fotos.

Was du allerdings wirst bearbeiten können (auch da wieder, wie bei den Fotos) ist die "Blende", also die Stärke der Unschärfe. Übrigens mit sowohl Final Cut Pro als auch iMovie. Dass das allerdings (wie bei den Fotos) nur begrenzt ausreizbar sein wird denke ich wird jeder der es mit seinen Fotos bereits hat schon genau wissen. Also Kirche und Dorf und so… aber die unsachliche Häme wird natürlich trotzdem nicht ausbleiben wenn es soweit ist. Alle werden es auf Maximum drehen und schreien was das für ein MIST ist! 🙄

Mir darf aber auch gerne mal jemand erklären wie das in ProRes drehen irgendwie mehr ist, als nur ein PR Gimmick. Welchen Vorteil (und nicht Nachteil) könnte ich haben gegenüber dem Aufzeichnen im bereits vorhandenen Dolby Vision/HEVC? Die Qualitätsfrage bei TELEFON Videos war meines Wissens noch nie eine Frage des CODECS. Was also soll ProResProRes im Glossar erklärt da jetzt bringen… außer völlig unnötig volle Telefonspeicher (und das Gefühl, trotz Telefonkamera, voll der "Pro" zu sein)?? 🤨

- RK

Zur Schärfeverlagerung in der Post:
Der User kann aber jederzeit die Regie übernehmen und die Schärfe selbst verlagern, entweder direkt bei der Aufnahme oder beim Schnitt.
So im Slashcam Artikel und so auch bei Apple verstanden. 😉 Bei vielen Android Geräten ging das mit der Schärfeverlagerung in Fotos schon bevor Apple das Feature überhaupt hatte. Ich weiß noch wie mich das 2015 komplett geflasht hat, als ich noch bei einem besagten Hersteller gearbeitet habe. Wie es dann beim iPhone im Video ist: Wir werden sehen... das wäre schon ein Killer-Feature.








Antwort von Frank Glencairn:

d.h. wenn per Tiefendatenanalyse des LiDAR Sensors erkannt wird, daß sich ein wichtiges neues Motiv dem Bildausschnitt nähert, dann fokussiert es darauf auto­matisch.
Weiß jemand, nach welchen Maßstäben diese "Wichtigkeit" erkannt werden soll?



Antwort von Nathanjo:

"Frank Glencairn" hat geschrieben:
d.h. wenn per Tiefendatenanalyse des LiDAR Sensors erkannt wird, daß sich ein wichtiges neues Motiv dem Bildausschnitt nähert, dann fokussiert es darauf auto­matisch.
Weiß jemand, nach welchen Maßstäben diese "Wichtigkeit" erkannt werden soll?
Wenn es wirklich KI-basiert ist, dann wissen das sicher nichtmal die Entwickler genau. Hängt sicherlich stark davon ab, womit die KI trainiert wurde. Und da werden sie sicher passende Szenarien ausgewählt haben. Neues Element kommt ins Bild, Person dreht sich um oder hin (sieht man in einem der Werbevideos z.B.). Sowas. (Alles meine Vermutungen)



Antwort von Jott:

Trainierte KI. Geht aber auch mit realer Intelligenz: antippen, was in die Fokusebene soll.



Antwort von R S K:

Nathanjo hat geschrieben:
Zur Schärfeverlagerung in der Post:
Der User kann aber jederzeit die Regie übernehmen und die Schärfe selbst verlagern, entweder direkt bei der Aufnahme oder beim Schnitt
So im Slashcam Artikel und so auch bei Apple verstanden.
Ja, schon. Nur widersprechen sie sich m.E. danach bzw. drücken sich recht undeutlich aus:
Die iPhone 13 Modelle sind somit die einzigen Geräte, mit denen sich der Tiefenschärfe-Effekt in einem Video auch nach der Aufnahme bearbeiten lässt.
Also doch nur Tiefenschärfe? Mal schauen. Es ist ja wahrlich nicht so, dass es unmöglich wäre, erst recht nicht mit dem LiDAR zur Hand um echte Tiefenbilder zu liefern. Das heißt aber auch, dass diese Daten irgendwie mitgetragen werden müssen. Sidecar File? Neues "mobile" ProResProRes im Glossar erklärt FormatFormat im Glossar erklärt oder "ProRes D" mit einem Tiefenkanal? 🤷🏼???

Wir werden sehen. Wenn tatsächlich (auch) Fokus, dann wäre das tatsächlich extrem interessant. Bin noch skeptisch ob es sich nicht nur um einen Marketing-Futzi handelte der sich nicht mit dem Unterschied auskennt und beides für das gleiche hält?

Nathanjo hat geschrieben:
Bei vielen Android Geräten ging das mit der Schärfeverlagerung in Fotos schon bevor Apple das Feature überhaupt hatte.
Auch da wieder: meinst du damit FOKUS oder BLENDE, also "ƒ-Stop" Änderung, also "nur" DOF? Ich hab nie mitbekommen, dass ein Android (oder sonstiges) Telefon den FOKUS nachträglich ändern bzw. verlagern kann. Vor allem anhand welcher Daten? Kenne mich bei Android aber auch nicht aus.



Antwort von Frank Glencairn:

"R S K" hat geschrieben:

Auch da wieder: meinst du damit FOKUS oder BLENDE, also "ƒ-Stop" Änderung, also "nur" DOF? Ich hab nie mitbekommen, dass ein Android (oder sonstiges) Telefon den FOKUS nachträglich ändern bzw. verlagern kann. Vor allem anhand welcher Daten? Kenne mich bei Android aber auch nicht aus.
Mein Mate9 kann das beides - die Tiefendaten scheinen irgendwie am/im Foto File zu hängen.
In dem Moment wo man das Bild jedoch in einer App (Snappseed z.B.) bearbeitet, ist allerdings Schluß damit.
Keine Ahnung wie das bei anderen Droiden ist.



Antwort von roki100:

also mein P30 auch.



Antwort von cantsin:

Selbst mit älteren iPhones konnten doch schon normale Fotos in Facebook & Co. dreidimensional (bzw. mit interaktiver Maus-Perspektivverschiebung) dargestellt werden, also musste da irgendwo Tiefeninformation gespeichert sein?!?

https://www.youtube.com/watch?v=WLr5QY5PU88



Antwort von mash_gh4:

cantsin hat geschrieben:
Selbst mit älteren iPhones konnten doch schon normale Fotos in Facebook & Co. dreidimensional (bzw. mit interaktiver Maus-Perspektivverschiebung) dargestellt werden, also musste da irgendwo Tiefeninformation gespeichert sein?!?
die depthmap ist normalerweise in derartigen handy photos einfach als zusätzlich pixmap in den metadatan od. als auxillary channel enthalten und aus der stereografischen analyse zweier benachbarter sensoren heruasgerechnet.

meist lässt sich die entsprechende tiefen-information sehr einfach mit ExifTool od. ähnlichem extrahieren und natürlich auch in Nuke u.ä. für diverse postprocessing-eingriffe nutzen.

siehe bspw:
https://exiftool.org/forum/index.php?topic=11544.0
https://developer.android.com/training/ ... h-v1.0.pdf



Antwort von cantsin:

mash_gh4 hat geschrieben:
die depthmap ist normalerweise in derartigen handy photos einfach als zusätzlich pixmap in den metadatan od. als auxillary channel enthalten und aus der stereografischen analyse zweier benachbarter sensoren heruasgerechnet.
Könnte dann Apple für die Fokusverlagerungen nicht einfach (im Videostream gespeicherte) Depthmaps verwenden?








Antwort von mash_gh4:

cantsin hat geschrieben:
Könnte dann Apple für die Fokusverlagerungen nicht einfach (im Videostream gespeicherte) Depthmaps verwenden?
technisch gesehen geht das sicher. es ist halt alles leider ziemlich hertseller spezifisch bzw. proprietär gelöst -- d.h. es gibt meines wissens nach wenige verbindliche od. weitverbreitete standards für diese geschichten.



Antwort von iasi:

cantsin hat geschrieben:
Wenn ich's nochmal in deutlicherer Sprache schreibe: Das sind IMHO grauenhafteste Zombie-Bilder:

mpv-shot0001.png


mpv-shot0002.png
(Anklicken für vergrößerte Ansicht)


Ist mir wirklich schleierhaft, wie man es einen Fortschritt finden kann, wenn Kamerabilder jetzt durch die algorithmische Aufbrezelung wie schlechte Videospiele aussehen.

Wer so etwas goutiert, hat überhaupt kein ästhetisches Empfinden und keinen Geschmack mehr. Das ist richtiger Proll-Trash, wie Kleidung von Rudis Resterampe.
Ich finde die Aufnahmen gelungen.
Sie fördern und transportieren die Handlung und beabsichtigte Wirkung.

Wer nur technisch perfekte Aufnahmen will, ...

Jedenfalls ist der Kurzfilm sehr gut gelungen und erfüllt auch die Intention.




Antwort von Nathanjo:

"R S K" hat geschrieben:
Nathanjo hat geschrieben:
Zur Schärfeverlagerung in der Post:

So im Slashcam Artikel und so auch bei Apple verstanden.
Ja, schon. Nur widersprechen sie sich m.E. danach bzw. drücken sich recht undeutlich aus:
Die iPhone 13 Modelle sind somit die einzigen Geräte, mit denen sich der Tiefenschärfe-Effekt in einem Video auch nach der Aufnahme bearbeiten lässt.
Also doch nur Tiefenschärfe? Mal schauen. Es ist ja wahrlich nicht so, dass es unmöglich wäre, erst recht nicht mit dem LiDAR zur Hand um echte Tiefenbilder zu liefern. Das heißt aber auch, dass diese Daten irgendwie mitgetragen werden müssen. Sidecar File? Neues "mobile" ProResProRes im Glossar erklärt FormatFormat im Glossar erklärt oder "ProRes D" mit einem Tiefenkanal? 🤷🏼???

Wir werden sehen. Wenn tatsächlich (auch) Fokus, dann wäre das tatsächlich extrem interessant. Bin noch skeptisch ob es sich nicht nur um einen Marketing-Futzi handelte der sich nicht mit dem Unterschied auskennt und beides für das gleiche hält?

Nathanjo hat geschrieben:
Bei vielen Android Geräten ging das mit der Schärfeverlagerung in Fotos schon bevor Apple das Feature überhaupt hatte.
Auch da wieder: meinst du damit FOKUS oder BLENDE, also "ƒ-Stop" Änderung, also "nur" DOF? Ich hab nie mitbekommen, dass ein Android (oder sonstiges) Telefon den FOKUS nachträglich ändern bzw. verlagern kann. Vor allem anhand welcher Daten? Kenne mich bei Android aber auch nicht aus.
Das erste mir bekannte Handy, das die Fokusebene im Portrait-Modus ändern konnte war das Honor 6+ von (damals noch) Huawei Anno 2014/15. Mein Samsung kann das heutzutage auch. Dass Apple das bisher nicht konnte wusste ich wiederum gar nicht.



Antwort von teichomad:

iasi hat geschrieben:
cantsin hat geschrieben:
Wenn ich's nochmal in deutlicherer Sprache schreibe: Das sind IMHO grauenhafteste Zombie-Bilder:

mpv-shot0001.png


mpv-shot0002.png
(Anklicken für vergrößerte Ansicht)


Ist mir wirklich schleierhaft, wie man es einen Fortschritt finden kann, wenn Kamerabilder jetzt durch die algorithmische Aufbrezelung wie schlechte Videospiele aussehen.

Wer so etwas goutiert, hat überhaupt kein ästhetisches Empfinden und keinen Geschmack mehr. Das ist richtiger Proll-Trash, wie Kleidung von Rudis Resterampe.
Ich finde die Aufnahmen gelungen.
Sie fördern und transportieren die Handlung und beabsichtigte Wirkung.

Wer nur technisch perfekte Aufnahmen will, ...

Jedenfalls ist der Kurzfilm sehr gut gelungen und erfüllt auch die Intention.
das tut ein guter schwarz weiß film auch, nur dass es hier einfach zu viele technische ecken und kanten gibt. focus shift overdose. weniger wäre hier mehr gewesen. Man wollte unbedingt zeigen was nicht gut funktioniert, warum...



Antwort von R S K:

teichomad hat geschrieben:
focus shift overdose.
Du hast also begriffen worum es ganz plakativ ging.

Bravo!
👍🏼🥳👏🏼🎉



Antwort von iasi:

teichomad hat geschrieben:
iasi hat geschrieben:


Ich finde die Aufnahmen gelungen.
Sie fördern und transportieren die Handlung und beabsichtigte Wirkung.

Wer nur technisch perfekte Aufnahmen will, ...

Jedenfalls ist der Kurzfilm sehr gut gelungen und erfüllt auch die Intention.
das tut ein guter schwarz weiß film auch, nur dass es hier einfach zu viele technische ecken und kanten gibt. focus shift overdose. weniger wäre hier mehr gewesen. Man wollte unbedingt zeigen was nicht gut funktioniert, warum...
Die Intention war nun einmal, den focus shift zu demonstrieren und dabei durch die Übertreibung den parodistischen Charakter zu unterstreichen.

Nebenbei funktioniert der Kurzfilm eben auch, da er in 100 Sekunden eine Geschichte erzählt und ein Genre parodiert - ohne ein einziges gesprochenes Wort.

Schau dir die einzelnen Einstellungen an - Situation und Personen werden eingeführt, Spuren gelegt, ein Verdächtiger verhaftet und am Ende die Auflösung geboten.
Focus shift wird dabei sehr effizient eingesetzt.

Die von dir kritisierten Einzelbilder finde ich gelungen.
Der Junge soll schließlich nicht als liebes Kind wirken.
Der Bildaufbau mit dem Buttler und den reagierenden Person funktioniert sehr gut.



Antwort von Nathanjo:

iasi hat geschrieben:
teichomad hat geschrieben:


das tut ein guter schwarz weiß film auch, nur dass es hier einfach zu viele technische ecken und kanten gibt. focus shift overdose. weniger wäre hier mehr gewesen. Man wollte unbedingt zeigen was nicht gut funktioniert, warum...
Die Intention war nun einmal, den focus shift zu demonstrieren und dabei durch die Übertreibung den parodistischen Charakter zu unterstreichen.

Nebenbei funktioniert der Kurzfilm eben auch, da er in 100 Sekunden eine Geschichte erzählt und ein Genre parodiert - ohne ein einziges gesprochenes Wort.

Schau dir die einzelnen Einstellungen an - Situation und Personen werden eingeführt, Spuren gelegt, ein Verdächtiger verhaftet und am Ende die Auflösung geboten.
Focus shift wird dabei sehr effizient eingesetzt.

Die von dir kritisierten Einzelbilder finde ich gelungen.
Der Junge soll schließlich nicht als liebes Kind wirken.
Der Bildaufbau mit dem Buttler und den reagierenden Person funktioniert sehr gut.
Ich finde den Film als unterhaltseme Feature-Demo auch total gelungen. Zu sagen da wird zu oft der Fokus gewechselt ist schon n bisschen amüsant. Ist ein bisschen als ob man sich über die ganzen Drohnenaufnahmen in einem DJI Mavic Feature Video beschweren würde.

Was mich am Feature selbst aber wirklich massiv stört ist das extrem starke und ruckelige Focus Breathing. Vor allem, weil das offensichtlich vom physischen Fokussieren kommt und damit extrem unnatürlich wirkt. Erst beginnt der Fokus langsam zu wechseln (KI Blur) und dann RUCKELT es in die finale Position, wenn der echte Fokus wechselt. So sieht es zumindest aus. Vielleicht kann man da ja auf der Software Seite noch was machen oder gar als User einstellen später...



Antwort von R S K:

Nathanjo hat geschrieben:
Vielleicht kann man da ja auf der Software Seite noch was machen oder gar als User einstellen später...
Ich denke man kann mit sehr gutem Gewissen annehmen, dass die Aufnahmen mit einer WEIT von finalen Version der Software gemacht wurden, ja. 😒

Sie ist es ja noch heute nicht.



Antwort von iasi:

Nathanjo hat geschrieben:

Was mich am Feature selbst aber wirklich massiv stört ist das extrem starke und ruckelige Focus Breathing. Vor allem, weil das offensichtlich vom physischen Fokussieren kommt und damit extrem unnatürlich wirkt. Erst beginnt der Fokus langsam zu wechseln (KI Blur) und dann RUCKELT es in die finale Position, wenn der echte Fokus wechselt. So sieht es zumindest aus. Vielleicht kann man da ja auf der Software Seite noch was machen oder gar als User einstellen später...
Mir scheint das gewollt.
Soll wohl den Eindruck einer echten Fokusverlagerung erzeugen.

Wohl wahr: Man kann nur hoffen, dass sich dieses "Focus Breathing" einstellen lässt.








Antwort von teichomad:

"R S K" hat geschrieben:
teichomad hat geschrieben:
focus shift overdose.
Du hast also begriffen worum es ganz plakativ ging.

Bravo!
👍🏼🥳👏🏼🎉
ohje




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
iPhone 11 Pro Max
IPhone 6 - Filmic Pro - externes Mikro
iPhone 8 Plus Video - kein Import Premiere Pro CC
FiLMiC Pro mit dem iPhone Xs - Perfekte Partner?
iPhone 12 Pro Dolby Vision in Davinci Resolve graden
Ägypten bereisen und mit dem IPhone 11 Pro filmen
iPhone 12 10-Bit Dolby Vision HDR auch ohne Pro?
Apple stellt iPhone 8, 8 Plus und X mit 4K 60p H.265 - sowie Face ID für iPhone X vor
FiLMiC Pro 6.13 ermöglicht 10-Bit SDR Video Aufnahme mit iPhone 12
Apple iPhone 11 Pro erstmals mit Triple-Kamera - und bestem Video aller Smartphones?
Apple iPhone 12 Pro Max - Qualität der 10bit 4K Videofunktion inkl. Dynamik und Rolling Shutter
Filmen mit dem Smartphone: Apple iPhone XS, Filmic Pro und Zhiyun Smooth 4 Gimbal in der Praxis
CineMatch und FilmConvert: 40% Rabatt und neues iPhone 12 Pro Camera Pack
Should You edit on your Iphone?
iPhone X vs. GH5
iPhone Aktivierungssperre umgehen?
Iphone am Ladegerät lassen?
Empfehlung Videoleuchte, Livestream iPhone
iPhone 7 PLUS - Schlechter optischer Bildstabilisator?
Frage zu iPhone App MAVIS
Entlarvung alberner iPhone Vergleiche
* iPhone XS XR Cinematic Videostabilisierung uvm.*
Cooles iPhone Camcorder Setup
Gesichts-Motioncapturing mit dem iPhone X
Stark reduzierte Schärfentiefe in iPhone-Video (?)
iPhone apps zur Audio-Aufnahme

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Empfehlung
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Produktion
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom

Messenschraeg
9-13. Oktober / Las Vegas
NAB 2021
3-6. Dezember / Amsterdam
IBC 2021
weitere Termine von Messen, Schulungen und Roadshows