Logo Logo
/// 

Sony A7S III erste Erfahrungen, Bugs, Problemlösungen,...



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7s I/II/III - Alpha 7 I/II/III - A7R I/II/III - RX10 - RX100-Forum

Frage von Mediamind:


Ich mache diesen Beitrag einmal auf für all diejenigen, die ihre ersten Erfahrungen und ggf. auch Problemstellungen diskutieren möchten. Ich habe die Kamera dank Ferien nun seit 5 Tagen im Dauereinsatz und bin schwer begeistert. Jedoch gibt es ein paar Schwierigkeiten, die sicherlich bald per Update adressiert werden oder aber einfach nur an mir als nicht Sony-Nutzer liegen. An anderer Stelle habe ich beschrieben, dass die Zebras um ca. 20% daneben liegen viele zu spät ein Clipping anzeigen. Die HDMIHDMI im Glossar erklärt Ausgabe bekomme ich nur als Rawausgabe hin, Longgop geht bei mir nicht. Eine Sache ist mir noch aufgefalen: auf der FN Taste liegen ja verschiedene wichtige Funktionen. Ich habe eine Funktion rausgeworfen und statt dessen die S&Q Bildfrequenz hinterlegt. Im S&Q Modus ändern sich allerdings die hier eingestellten Framerates nicht, man muss umständlicher über das Menue die Vorgabe ändern. Geht leider auch nicht, wenn man dies auf z.B. C3 legt.



Antwort von Axel:


Ich mache diesen Beitrag einmal auf für all diejenigen, die ihre ersten Erfahrungen und ggf. auch Problemstellungen diskutieren möchten. Ich habe die Kamera dank Ferien nun seit 5 Tagen im Dauereinsatz und bin schwer begeistert. Jedoch gibt es ein paar Schwierigkeiten, die sicherlich bald per Update adressiert werden oder aber einfach nur an mir als nicht Sony-Nutzer liegen. An anderer Stelle habe ich beschrieben, dass die Zebras um ca. 20% daneben liegen viele zu spät ein Clipping anzeigen. Die HDMIHDMI im Glossar erklärt Ausgabe bekomme ich nur als Rawausgabe hin, Longgop geht bei mir nicht. Eine Sache ist mir noch aufgefalen: auf der FN Taste liegen ja verschiedene wichtige Funktionen. Ich habe eine Funktion rausgeworfen und statt dessen die S&Q Bildfrequenz hinterlegt. Im S&Q Modus ändern sich allerdings die hier eingestellten Framerates nicht, man muss umständlicher über das Menue die Vorgabe ändern. Geht leider auch nicht, wenn man dies auf z.B. C3 legt.

Ich habe den Verdacht, dass es sich um Missverständnisse handelt. Das mit dem Zebra kriegen wir hin, bei meiner gegenwärtig ihre Ablösung erwartenden A6500 ist es so, wie c-m-o-n im Nachbarthread geschrieben hat. Ich war der Meinung, dass SLog3 Clipping bei 100% bedeutet, aber vielleicht sind es 95, keine Erfahrung mit SLog3.

Ich glaube, du vertust dich mit S&Q erneut. Du verstellst über das Funktionsmenu die S&Q Aufnahmeframerate (z.B. 120), aber du musst trotzdem an der Kameraoberseite vom Filmstreifen (oder M1, M2, M3) auf "S&Q" drehen. Es ist halt auch die Frage, ob eine wirkliche Zeitlupe ohne Ton überhaupt einen Vorteil hat gegenüber einfach "120p" (Filmstreifen beibehalten, lässt sich z.B. auf M3c legen). Mit ersterem kannst du das unten getimete nicht machen, mit letzterem schon:
https://youtu.be/gqRH2RpAxVQ?t=369

Davon abgesehen ist es unfassbar, wie man ein solches Handbuch 🤬 verfassen kann. Kein Wunder, dass es zum Unboxing-Ritual gehört, diese achtlos über seine Schulter nach hinten zu schleudern. Dieses Mal ist es mal wieder so schlimm wie immer:
Belicht.StrdEinstlg = Damit wird der Standard für den korrekten Belichtungswert für jeden Messmodus eingestellt. > = Damit wird der Standard für den korrekten Belichtungswert für jeden Messmodus eingestellt.



Antwort von Mediamind:

Ich bin im S&Q Modus durch Drehen des Rades, klaro. Das ist mal kein Verständnisproblem :-)
Und genau hier funktioniert die Wahl der FramerateFramerate im Glossar erklärt nicht.








Antwort von Axel:

Hier im Forum haben mW nur zwei Leute schon die Kamera, du und rp television. Das Handbuch ist, wie gesagt, Makulatur. Wenn du den Verdacht haben solltest, ein Montagsmodell erwischt zu haben, geh besser jetzt zu dem Fachhändler, der sie dir verkauft hat. Aber das glaube ich nicht, viele Dinge (wie z.B. S&Q) waren bei Sony noch nie super intuitiv.
Eine deutsche Review von heute lobt sogar ausdrücklich die Zebra-Funktion. Auch ein bislang übersehenes Feature: Man kann zwei Zebras gleichzeitig anzeigen lassen, die Streifen laufen gegensätzlich diagonal. Eines davon dediziert für per KI erkannte Haut. Wie cool ist das denn?



Antwort von Mediamind:

Ich glaube nicht, dass es ein Montagsmodell ist und warte einmal ab. Ab dem 15. sollten laut Ankündigung weitere Auslieferungen kommen. Mal schauen, wer seine nun bekommt und ob andere auch Probleme mit den Zebras haben. Gestern war ich in der Kletterhalle und habe wirklich schönes Material von unserer Tochter und Freundin an der Kletterwand machen können. Die Zebras auf 75% entsprechen dann wie gesagt 95% in FCPX. Die beiden Sigmas (24-70 f:2.8 und 85 f:1.4) sind eine wirklich tolle Kombination. Ich glaube bei den nächsten Hochzeiten werde ich diese Kombi zu 90% verwenden. Das Arbeiten hiermit ist einfach super entspannt. Der active Stabilisierungsmodus arbeitet nicht auf dem Niveau meiner S1/Gh5 aber dafür natürlicher. Gerade bei 24 mm habe ich bei Panasonic S1 gerne einmal diesen deutlichen Schwingeffekt des Sensors an den Bildrändern, der das Bild schnell unbrauchbar machen kann.
Das Handbuch ist in der Tat schlecht. Einiges konnte ich zwar lösen, bei anderen Dingen hilft nur probieren. Ich habe z.B. redundante Aufnahme auf beiden Kartenslots eingestellt. Fehlt die 2. Karte, nimmt er nicht auf. Das kann man aber konfigurieren, dass er sich dann nicht weigert. Bei Panasonic blinkt einfach die 2. nicht vorhandene Karte rot und man nimmt trotzdem auf, bei Sony geht man erst einmal ins Menue. Heute habe ich das Museum Ludwig in Köln geplant, Samstag den Duisburger Innenhafen. So intensiv habe ich noch nie eine Kamera getestet.



Antwort von rush:

Danke fürs berichten und ausprobieren - davon können sicherlich einige potentielle Käufer positiv von profitieren.

Sony hat in der Tat häufig etwas doppelseitige Funktionen die manchmal merkwürdig zu erreichen sind - da bleibt zu hoffen das sie entsprechende Punkte auch adressieren und fixen - was ja leider nicht immer der Fall bei den "kleinen" Alphas gewesen ist und dann unter Umständen erst im Nachfolgemodell gefixt wurde.

Ich hatte noch keine in der Hand und keine keine in Bestellung - werde sie mir aber bei Gelegenheit auch gern mal irgendwo ansehen.



Antwort von Axel:

Schlechte Handbücher sind vierdimensionaler Schach. Gute würden die Youtube-Kameratutorials überflüssig machen, um deretwillen viele die Kamera kaufen.



Antwort von Mediamind:

Das Video habe ich mir auch gerade einmal im Überflug angeschaut. Die dort dargestellte Dual-Zebra-Anzeige kann ich bei mir nicht finden. Auch im Handbuch steht dazu nichts. Merkwürdig...



Antwort von Axel:


Das Video habe ich mir auch gerade einmal im Überflug angeschaut. Die dort dargestellte Dual-Zebra-Anzeige kann ich bei mir nicht finden. Auch im Handbuch steht dazu nichts. Merkwürdig...

Scheint ein "Osterei" zu sein. Vielleicht taucht das Zebra spontan auf, wenn man Ges b Multimess eingestellt hat (und der Bereich nicht durch >Zebra >Untergrenze >Strd+Bereich ausgegrenzt ist ...):
zum Bild https://i.postimg.cc/4xWP5t2B/Ges-b-Multim.jpg

Ich will auf jeden Fall auch der AE eine Chance geben, wenn die schon so ausgefuchst ist.



Antwort von Mediamind:

Auf diesem Weg bekommt man keine weiteren Zebras. Das wäre für Gesichter nicht schlecht auch wenn ich Falsecolor für so etwas bevorzuge. Bezüglich der inkorrekten Zebras habe ich nun den Sony Support und den Händler parallel kontaktiert. Mit Zebras auf 75% stimmt die Anzeige des Clippingpoints recht genau. Wie beschrieben entsprechen die 75% an der A7SIII 95% am Ninja V und in FCPX.
Schade: man kann den Wechsel zu NTSCNTSC im Glossar erklärt nicht auf einem Funktionsbutton registrieren. Ich benötige fürs getting ready und andere Gelegenheiten bei Tageslicht die 30p für einen leichten Slowmoeffekt. Geht auch über das Mymenue, wäre mir aber mit einem FN-Button lieber. Noch besser wären variable Framerates :-)
Das ist aber meckern auf höchstem Niveau. Mein erster Eindruck zur Stabilisierung bestätigt sich fortlaufend. Sie ist nicht so festgenagelt wie bei der S1 oder Gh5, dafür sieht das aber authentischer aus und die Bildränder wobbeln bei weitwinkligeren Aufnahmen nicht so unschön.



Antwort von Axel:

Schade: man kann den Wechsel zu NTSCNTSC im Glossar erklärt nicht auf einem Funktionsbutton registrieren. Ich benötige fürs getting ready und andere Gelegenheiten bei Tageslicht die 30p für einen leichten Slowmoeffekt. Geht auch über das Mymenue, wäre mir aber mit einem FN-Button lieber. Noch besser wären variable Framerates :-)

Weil PALPAL im Glossar erklärt und NTSCNTSC im Glossar erklärt auf derselben Karte nebeneinander liegen dürfen (zum ersten Mal), *sollte* es klappen, NTSCNTSC im Glossar erklärt und 30 p auf (Moduswahlrad) 1,2 oder 3 (Memory) oder M1,M2,M3 (Memories auf Karte) zu legen. Schon probiert?



Antwort von Mediamind:

Hallo Axel, der Wechsel von PALPAL im Glossar erklärt zu NTSCNTSC im Glossar erklärt findet übergeordnet statt und wird nicht über die Profile für die 3 Speicherplätze gesteuert. Ich habe es gerade einmal ausprobiert. Stellt man NTSCNTSC im Glossar erklärt ein, gilt das für alle Optionen in der Kamera. Ist nicht sonderlich schlimm, bei anderen Sonys ist das ja scheinbar ein Problem mit der SD Karte, die man dann nicht mehr im gemischten Betrieb verwenden kann.








Antwort von Axel:

Hab sie heute gekriegt und die letzten vier Stunden damit rumgespielt. Trotz der vielen Tutorials, die ich gesehen habe, blicke ich vielleicht 20% durch. Der Autofokus ist ein sehr sauber kontinuierlicher, soviel steht schonmal fest: als ich mich langsam der Fensterscheibe mit den Regentropfen genähert habe, blieben die ohne zu pumpen permanent scharf. Aber wie schalte ich auf Unendlich? Draufpatschen nützt nix, da die Regentropfen überall auf der Scheibe sind. Naja, ich hab's geahnt, da gibt's noch viel zu lernen.
Sehr beeindruckend ist, worüber bisher höchstens am Rande jemand spricht, der AWB. Mit AWB Priority "Ambience" (im Gegensatz zu "White") und Shockless WB auf Stufe 2 ist Mischlicht anscheinend kein Problem, auch nicht, wenn man schwenkt.

Die nächste Woche widme ich SLog3, einstweilen dilettiere ich mit Standard. Witzig ist, dass die Kamera ootb auf "Movie" steht und dort auf den narrensichersten Automatikeinstellungen, wohl, um Frust zu vermeiden ...



Antwort von Mediamind:

Prima dass es geklappt hat, Axel. Da gibt es eine Menge auszuprobieren. Ich habe die Kamera auf den Tag nun aeit 2 Wochen und jeden Tag etwas mit ihr veranstaltet. Vorgestern hatte ich ein Brautshooting im Außenbereich. Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten. Auch bei f:1.4 sitzt der AF super. Ich habe mit die Hauttöne im Vektorscope genauer angeschaut. Sie liegen perfekt auf dem Skinetonevector.



Antwort von Mediamind:

Ich habe ein paar Tests zur Verwendung der Zebras gemacht. Die Zebras verhalten sich profilabhängig unterschiedlich. Da ich PP8 mit Slog3 s-Gamut3.cine verwende, habe ich getestet, ab wann das Clipping einsetzt. Die ist in FCPX beim Rohmaterial "gemessen" ca. bei IRE 87-88. Dies entspricht dann einem ander A7SIII eingestellten Zebra von 95%. Die für mich beste Einstellung des Zebras liegt bei C1 oder C2 auf 95% mit der Einstellung Strd+Bereich und +-2 als Bereichseinstellung. Bei FCPX existiert ein Lut für Slog3 s-Gamut3.cine. Dieser transformiert den Clippingbereich auf exakt 109 IRE. Das ist für REC709 nun nicht wirklich die beabsichtigte Zielhelligkeit von 100% Weiß. Mit dem von Sony herunter geladenen Slog3 s-Gamut3.cine Lut kommen die geclippten Bereiche wesentlich besser bei genau 99 IRE heraus. Geht man also mit der Zebraeinstellung wie oben beschrieben an den Start und bleibt ca. eine BlendeBlende im Glossar erklärt unterhalb des Clippings ist alles fein. Warum der Lut in FCPX auf die 109 IRE heraus will, wissen FCPX Profis wahrscheinlich besser als ich. Ich verwende nun nur noch den Sony Lut, bis Leeming einen eigens für die A7SIII angepassten anbietet.



Antwort von suchor:


Prima dass es geklappt hat, Axel. Da gibt es eine Menge auszuprobieren. Ich habe die Kamera auf den Tag nun aeit 2 Wochen und jeden Tag etwas mit ihr veranstaltet. Vorgestern hatte ich ein Brautshooting im Außenbereich. Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten. Auch bei f:1.4 sitzt der AF super. Ich habe mit die Hauttöne im Vektorscope genauer angeschaut. Sie liegen perfekt auf dem Skinetonevector.

Hast Du Fotòs od. Video gemacht?



Antwort von Mediamind:

Ausschließlich video.



Antwort von Axel:

Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten.

Ist das die neue Mirrorless-Version? Hätte mich auch sehr gereizt, aber das 85er 1.8 war das einzige Vollformat-Objektiv, was ich schon hatte, und es ist wirklich sehr okay.

Ich kaufte das Bundle mit dem 24er GM. Entsprach vom Bildkreis her dem Sigma 16mm bei APSC. Das testete ich mit Clear Image Zoom. Musste 1,2 x einzoomen, entspricht also jetzt etwa einem 19mm. Tja, was soll man sagen? Funktioniert. Ich bin mir nur nicht sicher, ob die Verzeichnung noch gescheit korrigiert wird, ich tippe auf nein. Schätze, ich verkauf Halbformat-Glas mit der A6500 zusammen, auch wenn's nicht mehr viel erbringt.

Will jemand unbedingt das Smallrig Cage? Hatte ich sofort gekauft, finde es aber total überflüssig. Für 20 € würd ich's verkaufen mit Paypal, Versand käm noch drauf (PN).

Weitere hastige Tests:
> Bluetooth-in-ear-Kopfhörer werden nicht erkannt (was ich schon gedacht hatte).
> Das Videobild über ImagingEdge und WiFi ist äußerst verzögerungsarm, jedenfalls wohl besser als >HDMI>WiFi-Transmitter ("RavenEye").
> Die großen Schluppen (á la Zacuto Eyepiece-Pümpel) passen prima über die original Suchermuschel. Ich weiß gar nicht mehr, woher ich meine momentane Mupfel habe, ich glaube, von der Billig-Sucherlupe von "Kamerar". Allerdings geht's wohl noch billiger: 7,39 € (es geht nur um das Gummi, die Lupe kann man glaube ich wegschmeißen).

Ich verwende nun nur noch den Sony Lut, bis Leeming einen eigens für die A7SIII angepassten anbietet.

Das werd ich mir nächste Woche in Ruhe ansehen.

Hast Du Fotòs od. Video gemacht?

Passend zum Thema Fotos: 12 MP reichen rechnerisch für einen Posterprint mit 150 dpi zwischen A3 und A2. Dazu braucht man keine A7R Dingenskirchen.
https://youtu.be/txngOzLtKQQ

Aber ausgedruckt habe ich eh schon lange nichts mehr.



Antwort von MrMeeseeks:

Mir ist nicht ganz klar warum Sony der A7s III nicht einfach einen Pixelshift Modus verpasst hat. Andere viel billigere Kameras bieten das an und der IBIS der A7s gibt das sicherlich her.

Ein 48MP Bild mit solch riesigen Senseln hätte sicher was tolles.



Antwort von Mediamind:

Habe ich mich auch schon gefragt. Pixelshift könnte in der einen oder anderen Situation hilfreich sein. @Axel: Ja, es ist die neue DGDN Version. Meine Frau und Tochter haben mich zum Geburtstag hiermit beglückt. Das ist für mich die Traumkombination. Ich libe die Kompaktheit und das Freistellungspotential. Mit dem Sigma Art 24-70 bin ich eigentlich komplett ausgestattet. Zusätzlich habe ich nun seit ein paar Tagen das 70-200 f:4 von Sony. Das Objektiv ist im Vergleich zu dem was ich sonst so schleppe einfach nur kompakt. Schade, dass die Preise für die Umrüstung bei Sigma so hoch sind. Ich würde gerne mein 105er f:1.4 auf E-Mount umbauen lassen. An L-Mount ist das zwar super aber der AF macht mir zu schaffen. Wie nett wäre das mit der Sony :-)



Antwort von Axel:

Will jemand unbedingt das Smallrig Cage? Hatte ich sofort gekauft, finde es aber total überflüssig. Für 20 € würd ich's verkaufen mit Paypal, Versand käm noch drauf (PN).

Ihr werdet gleich sehen, was für Konsequenzen es hat, wenn man den Ebay-FAQ-Tip "Wie erziele ich das meiste Interesse für meinen Artikel?" aus wenigstem Interesse für solche Themen nicht gelesen hat:
https://youtu.be/yJJnsWAkY6Q?t=434

Genau das.

Meine eigenen Reviews würden immer das Haar in der Suppe finden, den Teufel im Detail. Das ist nicht, weil ich im Leben ein korinthenkackender Stinkstiefel bin, sondern weil ich Benutzerfreundlichkeit und durchdachtes Design besonders würdige.








Antwort von Mediamind:

Die Smallrigg Cages sind mal gut und mal verbaut. Für die S1 gab es einen, bei dem auch der Batteriegriff aufgenommen wurde. Für mich war das interessant, weil ich längere Takes von bis zu einer Stunde immer mal wieder aufnehmen muss. Hierbei passte die Kamera nicht vernünftig in den Cage, ohne das man die Gurthalterung abbaut. Vollkommen schwachsinning und unnötig.



Antwort von Axel:

Die Smallrigg Cages sind mal gut und mal verbaut.

Mein A6500 Cage (es gibt mehrere Smallrig-Versionen) macht die Kamera tatsächlich kompakter, besser zu halten, praktischer, eben: benutzerfreundlicher.

Das/den Cage für die A7SIII hatte ich vor allem wegen der Gimbal-Grundplatte bestellt. Mit nur einem Stativgewinde unter der Kamera kann diese auf einem Gimbal leicht verkannten (hierbei egal, ob es Weebill S oder Ronin SC ist):
zum Bild https://i.postimg.cc/90F0wspd/A7-S-Platte.jpg
Darum habe ich extra einen Gewindeadapter in die vordere, größere Bohrung eingesetzt, um die Platte mit zwei Stativschrauben befestigen zu können. Das geht jetzt zwar (EDIT: denke, ich werde stattdessen anfangen, die Objektivstütze des Gimbals zur Ausrichtung zu benutzen, aber der Grund, warum das problematisch ist, zeigt sich in dem Bild oben: bei vielen Objektiven würde die Stütze genau auf dem manuellen Fokusring liegen - der Teufel liegt im Detail! EDIT 2: Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben), aber es zerstört komplett und unwiderruflich eine andere Eigenschaft der A7SIII: dass sie gut in der Hand liegt (zumindest in meiner). Ich benutze Manfrotto/Arca-Swiss-Platten gerne als Griff-Hilfe, um die Kamera vor's Auge zu halten. Bei der Pocket durch Einziehen einer Nylon-Handschlaufe:
zum Bild https://i.postimg.cc/dV50F6c7/Pocket2.jpg
zum Bild https://i.postimg.cc/SRLyv7Gx/Pocket3.jpg
Jetzt durch Drumlegen eines Stücks Moosgummi (einer von zwei Billigst-Fahrradgriffen, halbiert und aufgeschnitten):
zum Bild https://i.postimg.cc/3xDRGXgc/A7-S-Griff.jpg
Hier halt ich's mit rechts, da ich mit der anderen Hand das Handy halte, aber es geht sehr gut beidhändig. Die Kamera ist der reinste Handschmeichler ...



Antwort von Mediamind:

Von einem Cage nehme ich bei der A7SIII erst einmal Abstand. Ich will sie maximal mobil und leicht haben. Mehr als ein TC Generator auf dem Blitzschuh werde ich nicht verwenden. Für schwerere Setups habe ich die Panas mit Cage und allem Gerödel incl. XLRXLR im Glossar erklärt Adapter.
Ich habe mir heute einmal die Farben näher angeschaut. Unter Verwendung des Colorcheckers von X-rite sind das die besten Vektoren, die ich an einer meiner Kameras gesehen habe. Die Vektoren sind ausgewogen und korrekt ausgerichtet, die Hauttöne haben scheinbar eine minimale Drift in Richtung YL. In der Praxis beim letzten Brautshooting waren sie aber exakt im erwarteten Bereich. Das Vectorscope wurde mit dem Sony Lut versehen. Ich meine, dass der Lut scheinbar den Green und Cyan Vektor minimal korrigiert. Das ganze schaut mit Lut so aus: Bildschirmfoto 2020-10-24 um 12.11.43.png



Antwort von Axel:

Wenn ich nur den Sucher aktiv haben will, kein Problem. Ich klapp einfach das Display weg. Wenn ich nur das Display aktiv sein soll: Seite 43/49 (beiger Koffer) "Select Finder/Monitor". Damit habe ich C1 belegt, für"s Erste. Ich dachte, damit toggle ich die Präferenz manuell. Und in der Tat, drücke ich C1, wechselt die Anzeige vom Display auf den Sucher und bei nochmaligem Drücken zurück. Aber "Auto" scheint nicht wegschaltbar zu sein. Szenario: ich möchte durch Berühren eines Motivs auf dem Display einen neuen Fokuspunkt setzen (nebenbei gesagt bin ich von dieser Funktion total begeistert). Da ich Rechtshänder bin, schattet meine Hand dabei offenbar immer den Sucher ab. Die Kamera glaubt, ich will den Sucher benutzen und schaltet um. Bevor ich den Bildschirm berührt habe, wird dieser oft schwarz. Das muss einfach ein triviales Missverständnis sein. Eine Idee?



Antwort von klusterdegenerierung:

Wow, ein farbiges Vektorskop, das könnte Resolve auch aufwerten.



Antwort von Axel:

Auch, wenn hier keiner mehr mitliest, ein Zwischenbericht mit der Bitte um Korrektur:

Betrifft benutzerdefinierte Knöpfe und Schnell-Menus (über "FN" bzw. "My Menu" - hier ist der erste Punkt. Ich belasse die Gerätesprache in Englisch, weil Online-Tutorials und Reviews überwiegend englisch sind und weil die deutschen Übersetzungen der Funktionen noch grausamer sind). Ist es sinnvoll, wie Philip Bloom es macht, zahlreiche My Menus anzulegen, die wie die Hauptmenus kategorisiert sind?
Die Sony-Menus sind deswegen schlecht, weil sie verwirrend sind. Zuviel ist drin, und die Wege dahin sind mit der neuen Menustruktur vergleichbar mit Explorer-Dateipfaden. Es sind immer mehrere Klicks oder Wischbewegungen notwendig, um zu Potte zu kommen. Glücklich ist, wer Sonys "Logik" auswendig gelernt hat, sonst verbirgt sich zu oft hinter einer Abzweigung der Zonk statt der gesuchten Funktion.

> Also mache ich ein Benutzer-Menu mit maximal zehn direkt zugänglichen Einstellmöglichkeiten. Also einen zweiten FN-Knopf. Ich bin mir noch nicht sicher, ob ich auch eine C-Taste damit belegen will, denn C-Tasten gibt es immer zu wenig. Ich nehme halt die Funktionen, die nicht direkt mit einem Knopfdruck verfügbar sein müssen ...

> wie vor allem der
AF/MF Control Hold :
Switches the focusing mode while the button is held down.
AF/MF-Steuer. halt. :
Der Fokussiermodus wird umgeschaltet, während die Taste gedrückt gehalten wird.

Ich habe diese Funktion auf den stets sehr gut erreichbaren roten Movie-Button gelegt (und den Aufnahmeknopf auf den traditionellen Auslöser, was nicht schlimm ist, weil auf Seite 39/49 in Zeile 5 der Nicht-Default "Different Set for Still/Mv" versteckt ist).

Wahrscheinlich winken einige gelangweilt ab, aber mit diesem Knopf gibt es einen kleinen Workaround für das, was slashCAM hier im Vergleich zur Canon bemängelte:

Gerne würden wir bei der A7S III eine ähnliche Implementierung wie bei Canon (R5/R6) sehen, wo während des AF-Facetrackings auch im Sucherbetrieb auf dem rückseitigen Touchdisplay der nächste (also noch nicht aktive) AF-Tracking-Punkt positioniert werden kann, der vom AF-System dann beim Loslassen des Touchdisplays fokussiert und getrackt wird* (eine sehr mächtige Kombination aus AF und manuellen Eingriffsmöglichkeiten). Die A7S III bietet zwar die bekannte Touch Panel/Pad Funktionen aber eine Neu-Positionierung des AF-Trackings im laufenden Face-Tracking-Betrieb scheint es nicht zu geben.

Und zwar lässt sich im Sucherbetrieb der Fokuspunkt mit dem Joystick ("Multiselektor") verschieben. Am besten dafür geeignet ist aus mehreren Gründen das Fokusfeld "". Die Schärfeverlagerung ist permanent aktiv, es ist eine auf das Fokusfeld eingegrenzte Autofokus-Funktion. Das heißt, ich kann nicht vorab festlegen, worauf die Schärfe im nächsten Moment wandert. Das geht (bei mir) aber, wenn bzw. während ich die rote Taste gedrückt halte. Lasse ich die Taste los, erfolgt eine mehr oder weniger sanfte ÜberblendungÜberblendung im Glossar erklärt (ich lasse "" auf der mittleren Position, das sieht gut aus, und wenn's lahmer sein muss, mach ich's besser von Hand). Ein Drücken des Multiselektors bewirkt standardmäßig ein Zentrieren des Fokusfeldes, wodurch "" zu einem "Center Fix" wird.

Die Fokusfelder habe ich als Durchblätterfunktion auf die Objektivtaste gelegt. Es ist schön, dass man zu exotische Fokusfelder hier ausblenden kann ("").

*Tja, Tracking. Bitte korrigiert mich, aber so, wie ich's verstanden habe, unterscheidet sich das Berührungs-Fokussieren auf dem Monitor von dem auf dem "Pad" (Sucher) dadurch, dass es automatisch getrackt wird. Während das mit dem Joystick anvisierte Motiv nicht getrackt wird. Das ist schade. Aber vielleicht habe ich etwas übersehen. Bitte aufgreifen!

Der manuelle Fokus ist im Sucher übrigens ein Kinderspiel. Wegen der phantastischen Auflösung reicht das dezenteste PeakingPeaking im Glossar erklärt, um völlig sicher die Schärfe einzustellen. Einziger Nachteil ist, dass bei den für AF optimalen Objektiven die Fokuswege ziemlich kurz sind.

Zu den Codecs:
Ich schrie nicht seit Jahren, dass 100 Mbit für UHD zu wenig seien, um jetzt 100 oder gar 50 oder gar 30 in 10-bit zu benutzen, nur, weil's geht und weil ich die nächste CPU-Aufrüstungsrunde unterstütze. Deswegen hab ich HEVC erst gar nicht probiert, sondern nehme gleich das maximal schnittfreundliche All-I, auch, wenn Max Yuryev das für Speicherkartenverschwendung hält. Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen:
https://youtu.be/NA2DFgj25x8

Zu SLog3 und dessen Belichtung:
Für mich ist das Platzieren einer Graukarte, wie Gerald Undone es empfiehlt, keine Option. Ich finde aber meine ersten Test total ermutigend, weil es prinzipiell nicht anders ist als mit SLog2 bei der A6500. So mach ich's jetzt noch (weil ich SLog3 intuitiv-visuell noch nicht völlig einschätzen kann, was ich bis Ende der Woche zu können beabsichtige):
> PP8, einzige Änderung: Detail - 2
> Shooting Mode " "
> Belichtungskorrektur (am "Hardware"-Rad) "+1,7" (Nun werdet ihr sagen, was nützt diese Exp-Comnp., wenn eh alles manuell ist? Nun, es ist nicht alles manuell, denn ich habe ...)
> Auto ISO
> Zebra 90 +/- 2

Aufgrund dessen wird mir an der Unterseite von Monitor/Sucher angezeigt, wie weit ich die Exp.-Comp. erreiche. Die Base-ISO von 640 blinkt, wenn sie verlassen werden muss, und die Skala zeigt mir an, ob ich drüber oder drunter bin.

Das führt zu 100% benutzbaren Bildern, die aber nicht gleichmäßig belichtet sind. Das wird erfahrungsgemäß mit Schulung des Augenmaßes immer besser.

Am Sonntag hatte ich Brandon Lis Standard probiert (obwohl es in diesem Kreativstil keine Minuswerte für Schärfe gibt ...)
zum Bild https://i.postimg.cc/Vkkvr4Cw/Brandon-Standard.jpg
... und zwar mit , und .

Fand ich ehrlich gesagt nicht so toll. Bis auf, wie erwähnt, AWB. Interessant ist, dass die Kamera (im Gegensatz z.B. zur A6500) bei automatischer VerschlusszeitVerschlusszeit im Glossar erklärt die 180°-Regel erst bricht, wenn BlendeBlende im Glossar erklärt und ISO zu extrem werden.

Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben.
zum Bild https://i.postimg.cc/K85MMRjX/Kaiser-Platte.jpg
Eine QR-Grundplatte von, weiß ich nicht mehr, Kaiser oder Cullman. In dem Loch für den Positionierungsstift (wenn das so heißt) ist ein Stativgewinde.



Antwort von Mantas:



....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...

scheint eher ein Premiere Problem zu sein.



Antwort von Axel:



....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...

scheint eher ein Premiere Problem zu sein.

Mag in diesem Fall so sein.

Nichtsdestotrotz wird beklagt, dass die Sony A7SIII ein Problem mit hässlich geglättetem Rauschen hat. Das ist so. Wie wahrscheinlich ist es, dass sich solche Klumpen durch temporale KompressionKompression im Glossar erklärt verbessern? Irgendwo muss der CodecCodec im Glossar erklärt ja ansetzen, um den Effizienzunterschied hinzukriegen. Ich finde 10 Mbps pro B/s (25 fps sind 250 Mbps) immer noch bescheiden und verstehe absolut nicht, warum für Leute, die sich ohne Not einen .000 MacPro kaufen, ein Euro fünfzehn pro Minute Video ein quersitzender Furz sind.

Ach, warte mal: die .000-Maschine will natürlich gefordert werden!

EDIT: Aber selbst die Edel-Käsereibe macht die Grätsche bei HEVC 10-bit 422. Ist einfach kein Standard. In PALPAL im Glossar erklärt ohnehin nur verfügbar in 50 fps und 45 Mbps. Also empfiehlt der Max, 4:2:04:2:0 im Glossar erklärt zu verwenden, um der Schnittfreundlichkeit willen.



Antwort von cantsin:


EDIT: Aber selbst die Edel-Käsereibe macht die Grätsche bei HEVC 10-bit 422. Ist einfach kein Standard. In PALPAL im Glossar erklärt ohnehin nur verfügbar in 50 fps und 45 Mbps. Also empfiehlt der Max, 4:2:04:2:0 im Glossar erklärt zu verwenden, um der Schnittfreundlichkeit willen.

Das ist dann aber echt ein Apple- (bzw. AMD GPU-) Problem. Bei der Kombination Resolve + Nvidia 1080Ti läuft das 4:2:2-Material der Kamera butterweich.








Antwort von MrMeeseeks:



....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...

scheint eher ein Premiere Problem zu sein.

Er schreibt sogar selber als Ergänzung unter seinem Video folgenden Kommentar

"Update: when I open the file with the windows "movie & tv" application that blurry line is gone. This seems to prove that the camera is not the problem. I tested the file on another computer I have in Premiere and it created the same line. Maybe this is something Adobe can fix? I wonder why it's messing up for me but not other people in Premiere. I'll keep looking into this and will come back when I have more answers."

Und dennoch löscht er das Video nicht oder ändert zumindest den Titel. Noch immer heißt es.

"Something is wrong with my Sony A7S III"

Diese ganzen Clickbait Penner sind echt nicht zu ertragen.



Antwort von Axel:

Diese ganzen Clickbait Penner sind echt nicht zu ertragen.

Er hätte ein " - solved!" in den Titel setzen können, das stimmt schon. Ansonsten ist der Typ voll okay, immer wieder kontroverse Foto-Themen, die nicht *nur* Clickbait sind.



Antwort von Axel:


Gerne würden wir bei der A7S III eine ähnliche Implementierung wie bei Canon (R5/R6) sehen, wo während des AF-Facetrackings auch im Sucherbetrieb auf dem rückseitigen Touchdisplay der nächste (also noch nicht aktive) AF-Tracking-Punkt positioniert werden kann, der vom AF-System dann beim Loslassen des Touchdisplays fokussiert und getrackt wird* (eine sehr mächtige Kombination aus AF und manuellen Eingriffsmöglichkeiten). Die A7S III bietet zwar die bekannte Touch Panel/Pad Funktionen aber eine Neu-Positionierung des AF-Trackings im laufenden Face-Tracking-Betrieb scheint es nicht zu geben.

*Tja, Tracking. Bitte korrigiert mich, aber so, wie ich's verstanden habe, unterscheidet sich das Berührungs-Fokussieren auf dem Monitor von dem auf dem "Pad" (Sucher) dadurch, dass es automatisch getrackt wird. Während das mit dem Joystick anvisierte Motiv nicht getrackt wird. Das ist schade. Aber vielleicht habe ich etwas übersehen.

Meine Nasenspitze wies mir unversehens den Weg. Ich hatte den Monitor nicht nach hinten geklappt (ist eh ein Schutzglas davor), als ich durch den Sucher sah. Plötzlich tauchte ein orangefarbenes Kreuz im Bild auf, das eine Sekunde später durch einen wild zappelnden Trackingrahmen ersetzt wurde, der meine Sprudelflasche trackte.

Ich probierte es aus. Beim Blicken durch den Sucher (und mithin bei nicht leuchtendem Monitor, es ist ja eine Entweder-Oder-Funktion) erzeugt das Berühren des Monitors (und das Belassen der Nase resp. Fingerspitze an dieser Stelle) das Erscheinen eines orangen Fadenkreuzes im Sucher. Dieses Kreuz lässt sich (ohne Loszulassen, wohlgemerkt) frei verschieben, egal, welches Fokusfeld gerade aktiv (und noch gültig) ist. Das Loslassen des Monitors aktiviert ein Fokustracking des zuletzt vom Fadenkreuz bedeckten Motivs.

Eine erneute Berührung des Monitors erzeugt - bei noch laufendem Tracking - ein zweites Fadenkreuz. Erst, wenn man dieses wiederum loslässt, überblendet die Schärfe zum neuen Motiv. Abgebrochen wird das Ganze durch Drücken des Joysticks (der Default: "". Der Abbruch ist allerdings nicht sehr elegant, es sei denn, man hat vorher bedacht, dass dieselbe Taste gleichzeitig das Fokusfeld zentriert (solange man's nicht umprogrammiert).

Die deutsche Hilfe erwähnt, dass es besser ist, die Berührungsfunktion zu sperren, damit man nicht beim Blicken durch den Sucher versehentlich mit der Nase einen neuen Fokuspunkt aktiviert (wie es mir passiert ist). Nur die englische Version formuliert es verständlich:

When shooting with the monitor, touch the subject to focus.
When shooting with the viewfinder, you can move the position of the focus by touching and dragging on the monitor while looking through the viewfinder.

Es geht also.

In >Menu >44/51 >Touchpad-Settings führt Touch Postion Mode: Absolute Position dazu, dass das neue Fadenkreuz an der (nicht besonders präzise zu treffenden) Stelle erscheint, an der der Finger den schwarzen Monitor berührt. Relative Position lässt das Kreuz immer dort erscheinen, wo gerade getrackt wird. Ich empfehle dieses, weil es intuitiver ist.

Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben.
zum Bild https://i.postimg.cc/K85MMRjX/Kaiser-Platte.jpg
Eine QR-Grundplatte von, weiß ich nicht mehr, Kaiser oder Cullman. In dem Loch für den Positionierungsstift (wenn das so heißt) ist ein Stativgewinde.

Das funktionierte nur zufällig mit dem 35mm f1.8, das etwas schlanker ist. Das fette 85mm passt nicht drauf. Ich muss die Platte in der Mitte durchsägen ...



Antwort von Mediamind:

Ich habe meine ersten Versuche mit Raw gemacht. Einen vernünftigen Workflow, um damit vergleichbar gutes Material zu machgen wie in SLOG 3 sehe ich in FCPX noch nicht. Mal schauen, ob hier auf Slashcam etwas hierzu erscheint, die Redakteure sind über das Thema auch gestolpert. Die dunklen Partien rauschen kräftig mit Raw. Diese Mamutfiles mag ich mir nicht mit einem Denoiser antun.



Antwort von Axel:

@mediamind
Du wirst ja bezüglich PRAW und des FCPX-Workflows (während des Lockdowns wird es wohl FCPXI. Wie spricht man das? Elf? Eleven? eggs-eye? Wie der Diktator von China?) von allen Hunden gehetzt sein und weißt bereits,
>dass man idealerweise eine LUT benutzt, um PRAW zu normalisieren. Es muss keine SLog3-LUT sein, es muss noch nicht einmal eine Sony-LUT sein.
>dass man sich den Zinnober hätte gut sparen können, wenn die Metadaten verfügbar wären (aber Sony hat das nicht für nötig gefunden).
>dass es falsch ist zu sagen, PRAW rauscht mehr als Dingenskirchen oder zum Beispiel SLog3.
>dass die Sony A7SIII-Bord-Codecs XA-xxx nolens volens eine Rausch-Glättung anwenden, die total unattraktiv ist.
>dass man selbst bei der Canon EOS R5 quasi vom noise floor essen kann im Direktvergleich.
>dass Philip Bloom eine Woche lang Tag und Nacht ohne Schlaf damit verbracht hat, PRAW in FCP mit Neat-Video vom extremen Rauschen zu befreien.
>dass dieses Rauschen dennoch dem verknasten Lowlight-Zeug von den Karten ästhetisch vorzuziehen war.
>dass es deswegen strittig ist, ob man die A7SIII als Lowlight-Kamera bezeichnen darf. Oder vielmehr,
>dass es sehr wohl eine Ultra-Lowlight-Kamera für billig aussehendes Video ist, aber nicht gleichzeitig eine "cinema camera".
>dass man den Rauschgrund nicht mit aufnehmen soll und deshalb tendenziell überbelichten.
>dass der ideale Überbelichtungswert für SLog3 (und damit auch für PRAW!) 1 2?3 Blenden (sprich: "+1,7") ist für eher dunkle Aufnahmen.
>dass man sich mit dieser Überbelichtung bei sehr hellen Aufnahmen in's Clipping begibt und
>dass man deswegen in Highkey-Situationen nach Herzenslust unterbelichten darf (zum Schützen der Highlights), aber
>dass die Dynamik, hat man erstmal eine gute SNR sichergestellt, sehr gut ist und
>dass die Kamera nach "oben" hin eine Menge verzeiht, so-
>dass ETTR mit Zebras einen satten HeadroomHeadroom im Glossar erklärt haben kann.

Für mich würde sich die Frage PRAW oder nicht gar nicht stellen, wenn es intern wäre. Aber wenn ich ein ehrfurchtgebietendes Rig hätte bauen wollen, wäre es wohl besser die BMP6k gewesen. Neuerdings dank Lidar mit rudimentärem Autofokus (den man aber mit Geld und zusätzlichem Rig-Gedöns und Gewicht bezahlt). Hier ist einer mit Fischertechnik-Faszination unterwegs:
https://youtu.be/3Yh5ZPPYyRg
Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera". Der momentane Stand der Dinge, was Support für PRAW betrifft, zwänge mich zu SLog3 in 16-bit (nix dagegen), aber auch zum Kaufen und Mitschleppen des Ninjas. Der Kompaktfaktor ist damit futsch.



Antwort von Funless:


Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera".

Wie definierst du denn für dich persönlich "cinema camera" wenn ich fragen darf.



Antwort von Axel:



Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera".

Wie definierst du denn für dich persönlich "cinema camera" wenn ich fragen darf.

Ich mag schöne Bilder. Ich bin mir aber bewusst, dass daran die jeweilige Kamera nur zu etwa 5% einen Anteil hat (Zahl aus der Luft gegriffen). Aus irgendeinem Tutorial habe ich diesen Screenshot gemacht:
zum Bild https://i.postimg.cc/HkYhsxRB/Filmkunst.jpg
... und ihn "Filmkunst" genannt. Weil ich mal eine tolle Buchreihe hatte, die "Filmkünste" hieß, und von denen jedes Buch den oben gezeigten Beiträgern gewidmet war.

Meine ganz persönliche cinema camera ist die, die mir erlaubt, mich auch auf diese anderen Aspekte zu konzentrieren. Interessanterweise kommt die Kamera nur mit "Bildrate" zu Würden, das ließe sich natürlich noch weiter aufschlüsseln. Aber die Slomo-Funktionen sind mir schon wichtig.

Wie es in einer heute hochgeladenen Review von F-Stoppers heißt: kein noch so erfahrener Focuspuller kann so zuverlässig fokussieren wie die A7SIII. Der Touchfokus ist nach Sonys eigener Ansicht eher eine andere Version des manuellen Fokus:
? Berühren Sie das Motiv, auf das Sie fokussieren wollen, vor oder während der Aufnahme.
• Wenn Sie das Motiv berühren, wird der Fokussiermodus
vorübergehend auf Manuellfokus umgeschaltet
... lediglich das Tracking und die Präferenz für Gesichter und später für Augen sind Automatik-Funktionen.

Es ist keine Lowlight-Kamera, aber eine Kamera, die den Aspekt Beleuchtung stark vereinfacht, insofern, dass man mit existierendem Licht viel weiter kommt als mit anderen Kameras. Man darf nur nicht per Kamera heller machen wollen.

Ich will mich um weniger kümmern müssen und trotzdem technisch annehmbare und ästhetisch nicht abstoßende Aufnahmen bekommen. Obligatorischer Kubrick-Spruch: "Ein Bild ist eine Aufnahme (recording) eines Bildes."
Das Bild existiert vor der Kamera. Weiterer Kubrick-Spruch: "Wenn etwas interessant ist, ist es fast egal, wie es gefilmt wurde."



Antwort von pillepalle:

Vielleicht muss man sich auch einfach mal von dem Gedanken lösen das 'die Kamera' das 'Kinobild' macht. Unterbewusst weiß das vermutlich auch jeder, aber trotzdem glaubt man oft mit der neueren/besseren Kamera auch automatisch bessere Filme machen zu können. Das stimmt eben nur sehr bedingt.

VG



Antwort von klusterdegenerierung:


Der Kompaktfaktor ist damit futsch.
Naja, jetzt übertreibst Du aber ein bisschen.








Antwort von Axel:



Der Kompaktfaktor ist damit futsch.
Naja, jetzt übertreibst Du aber ein bisschen.

Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.

Und was bringt das Rig überhaupt? Ich kann mit der Kamera alleine und Steady Shot jede noch so statische Stativaufnahme simulieren, und beweglicher bin ich auch. Meine eigenen Arme sind das Rig, gern unterschätzt. Active Steady Shot mag nicht reichen, um Schritte auszugleichen, aber ich kann damit jeden Verfolgerschwenk aus der Hand (besser: aus dem Oberkörper) machen.

Das zum Beispiel war das Problem mit der A6500. Aus der Hand sehr schwierig. IBIS zu schlecht, und Rolling ShutterShutter im Glossar erklärt das Alleinstellungsmerkmal. Aber auch da bastelte ich kein (richtiges) Rig, denn:

Auf einem Einbeinstativ und natürlich auf einem Gimbal ist fast alles möglich.



Antwort von pillepalle:



Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.

Natürlich wirkt das offizieller. Aber wenn man einen Job macht ist das ja auch nicht schlimm. Ich möchte doch niemanden 'heimlich' oder gegen seinen Willen filmen? Ich weiß jetzt auch nicht welches Rig Du konkret meinst, aber so viel schwerer zu handeln ist das dann eigentlich nicht. Hat sogar ein paar Vorteile. Der Nachteil ist eben die längere Setup-Zeit. Klar, wenn ich nur den Body mit Optik aus der Tasche ziehe, bin ich schneller als wenn ich erst noch an der Kamera herum riggen muss. Bei mir ist die Lösung dafür einfach eine größere Tasche (Rollkoffer). Da kann man dann auch praktisch die fertig geriggte Kamera transportieren. Aber ich verstehe schon das vielen diese 'Kompaktheit' wichtig ist.

VG



Antwort von Axel:

Ich weiß jetzt auch nicht welches Rig Du konkret meinst, aber so viel schwerer zu handeln ist das dann eigentlich nicht.
zum Bild https://i.postimg.cc/8CNpV5J1/A7-Rig.jpg
Nun, es ist ~1,5 x so schwer wie Kamera plus Objektiv, nämlich 1581g (vorausgesetzt, man benutzt für den Ninja NPF750, was wohl die typische Größe dafür ist). Den Magic Arm und sowas habe ich schon weggelassen. Was ich auch gar nicht verstehe ist, warum man einen Immerdrauf-Zoom anstatt zwei oder drei Primes nimmt. Tut sich von Preis/Qualität her nicht viel, sogar eher umgekehrt: selbst billigere Primes sind oft deutlich besser als der ZoomZoom im Glossar erklärt es bei ihrer jeweiligen BrennweiteBrennweite im Glossar erklärt ist. Vor allem sind sie leichter.

Ist für mich so ein bisschen wie die Wahl zwischen Fiesta und Hummer, um, sagen wir mal, von A nach B zu kommen.



Antwort von Funless:



Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.

Natürlich wirkt das offizieller. Aber wenn man einen Job macht ist das ja auch nicht schlimm. Ich möchte doch niemanden 'heimlich' oder gegen seinen Willen filmen?

Wenn ich ältere posts von Axel richtig in Erinnerung habe, dann filmt er mittlerweile keine Jobs mehr und daraus resultierend ist all das was er mit seiner A7SIII filmt privater Natur (Bitte korrigiere mich Axel, falls ich mich täusche). Jedenfalls wenn du private Aufnahmen (insbesondere im öffentlichen Raum) machst, dann ist jegliches Zusatzgeraffel an der Kamera äußerst aufällig, da recht schon ein Mikro auf der Kamera um unangenehme Reaktionen von irgendwelchen Leuten hervorzurufen. Ist halt leider so.



Antwort von klusterdegenerierung:



Naja, jetzt übertreibst Du aber ein bisschen.

Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.

Und was bringt das Rig überhaupt? Ich kann mit der Kamera alleine und Steady Shot jede noch so statische Stativaufnahme simulieren, und beweglicher bin ich auch. Meine eigenen Arme sind das Rig, gern unterschätzt. Active Steady Shot mag nicht reichen, um Schritte auszugleichen, aber ich kann damit jeden Verfolgerschwenk aus der Hand (besser: aus dem Oberkörper) machen.

Das zum Beispiel war das Problem mit der A6500. Aus der Hand sehr schwierig. IBIS zu schlecht, und Rolling ShutterShutter im Glossar erklärt das Alleinstellungsmerkmal. Aber auch da bastelte ich kein (richtiges) Rig, denn:

Auf einem Einbeinstativ und natürlich auf einem Gimbal ist fast alles möglich.

Und was spricht dann gegen eine Kamera mit Objektiv?



Antwort von pillepalle:

@ Funless

Stimmt schon, aber so gesehen darfst Du dann noch nicht mal ein vernünftiges Stativ benutzen. Damit ist man ja dann schon quasi der Vollprofi :)

VG



Antwort von Axel:

@Funless
Als Hochzeitsfilmer ("Job" ist übertrieben) war ich eine Ein-Mann-Band. Da schleppte ich auch absolut nichts Überflüssiges mit. Wenn ich (wie mein bester Kumpel) Profi wäre, würde ich unter einer FS7/FX9 nichts an den Start bringen. Aus Gründen der dicken Hose einerseits, andererseits, weil ich mindestens einen Assi hätte, i.d.R. mehr. DV Rebel, Rungunshooter (Brandon Lis früherer Avatar), das sind so die Bezeichnungen, die mir sympathisch sind.

Ich finde das o.e. Rig "schön", aber aus kindlicher Freude an sinnbefreiter Haptik, aus Spieltrieb. Ursprünglicher Berufswunsch war Lokführer - wir wohnen an einem Bahndamm hinter einem Stellwerk, und es lag eine Menge schwerer Metallschrott rum. Die mechanische Filmtechnik war auch so ein Faszinosum, monströse Metallmaschinen spuckten filigrane Licht-Schatten-Spiele aus. Industriebracken sind für mich pittoresker als verfallene Dracula-Schlösser.

Was hat das alles mit "kompakt" zu tun?

Ist für mich die einzige Erklärung für solche Rigs, da die Kamera (bis auf Raw) alles intern - und besser! - macht, was diese teuren Helferlein machen sollen.



Antwort von klusterdegenerierung:


Was hat das alles mit "kompakt" zu tun?
Wie gesagt, was spricht gegen die Cam mit Objektiv?
Für quasi Hobby braucht man auch kein Raw, einen kleinen Tod muß man eben sterben.



Antwort von pillepalle:

@ Axel

Vollkommen richtig. Meine Kamera kann das allerdings nicht intern und selbst wenn sie es intern könnte, ist mir ein halbwegs vernünftiges Monitoring vor Ort schon wichtig. Einfach damit ich genau beurteilen kann was ich mache. Hab' sogar in irgendeinem Video gesehen, das das Display der Sony noch kleiner ist als das der Z6. Für mich wäre das nix, außer vielleicht am Gimbal, oder an einer Drohne. Aber sind eben auch andere Anwendungen. Von da her kann ich Dich gut verstehen.

VG








Antwort von Axel:



Was hat das alles mit "kompakt" zu tun?
Wie gesagt, was spricht gegen die Cam mit Objektiv?

Nichts, aber das sag ich doch.

@ Axel

Vollkommen richtig. Meine Kamera kann das allerdings nicht intern und selbst wenn sie es intern könnte, ist mir ein halbwegs vernünftiges Monitoring vor Ort schon wichtig. Einfach damit ich genau beurteilen kann was ich mache. Hab' sogar in irgendeinem Video gesehen, das das Display der Sony noch kleiner ist als das der Z6. Für mich wäre das nix, außer vielleicht am Gimbal, oder an einer Drohne. Aber sind eben auch andere Anwendungen. Von da her kann ich Dich gut verstehen.

Als Kronzeuge gegen die Rigger der Tafelrunde wäre ich eine Fehlbesetzung. Beweis: Schrauben- und Scharniere-Sammelzwang. Allerdings besaß ich schon drei, nein, sogar vier externe Monitörchen (smallHD Focus gerade verschenkt). Keines davon hatte ich je bei einer Hochzeit dabei. Ballast. Dienten nur zum Testen ihrer selbst. Das ist kein verächtlicher Daseinsgrund für so einen Bildschirm, denn Testen, mit Technik rumspielen, zaubert so manchem ein Lächeln ins Gesicht und flutet die Welt mit Harmonie-Pheromonen. Demgegenüber ist das fahrige Draufgucken bei einem "Dreh" zur Kontrolle von Bildausschnitt und Schärfe profan. Konzentration auf das Visuelle fördern die Dinger sowieso nicht.

Ja, das Klappdisplay der A7SIII ist ziemlich klein. Fällt unter die Kategorie "erstaunlich gut". Dann und wann kommt einem ein gutes Display zupass. Aber ich bevorzuge Sucher. Der gute Sucher war wahrscheinlich das Zünglein an der Waage für die Kaufentscheidung. Damit kann ich "genau beurteilen kann was ich mache." Display ist tatsächlich nur zur Bildausschnitt-Kontrolle, wenn der EVF nicht zugänglich ist. Aber das ist er - ich hab's schon mal beschrieben - sogar auf einem Gimbal.



Antwort von pillepalle:

@ Axel

Ja, wie gesagt - Hochzeitsfilme sind eine andere Baustelle. Bei mir geht's aber eben oft auch um weniger 'profane' Dinge, um mal Deine Ausdrucksweise zu verwenden (für Kadrage oder Fokus). Da ist das Beurteilen von den Details (Licht, Überschneidungen, ect) auch wichtig. Und abgesehen davon, möchte ein Kunde oder AD auch lieber ein noch besseres Monitoring. Überlege schon fast mir zusätzlich noch einen 7" Monitor mit billig Funkstrecke zu besorgen, um nicht immer deren kalten Atem im Nacken zu spüren 😅

Bei Hochzeiten hat man als Filmer ja weitestgehend seine Ruhe.

VG



Antwort von klusterdegenerierung:

Was ich auch empfehlen kann ist, eine kleine Handyhalterung oben auf dem Hotschuh des Manitoes und ein Handy drüp.
Das funzt erstaunlich gut und mit der neuen Camoodoo app ist das echt nice und das delay kaum der Rede wert.

Aber natürlich mit schwenkgelenk, dann kann man das handy richtig flach übers Objektiv klappen und ist kaum sichtbar und aus der Hüfte der Hit.
Hab ich auch schon so genutzt und ist der neue heiße scheiß. :-)



Antwort von Mediamind:

Zum Thema Dual-Zebras: Das war eine Fehlinformation. Der YTer hat das revidiert. So gut die Idee ist, bei der A7s III ist dies nicht implementiert.
Zum Thema Cage: Der Vorteil der Kamera liegt in der Hand (wörtlich). Kompakt, leicht, schnell im Einsatz...Ein Cage verbessert die Handhabung nicht. Bei der S1 oder eine GH5 mit XLR-Adapter, Timecodegenerator, NTG3 und ggf. dem Ninja sieht das anders aus. Die habe ich vor dem Dreh konfiguriert und dann ab auf das Stativ. Das ist nichts, was ich durch die Gegend schleppen mag. Auch bei einem minimalistischen Rigg sehe ich keine Vorteile (für mich).
Selbst mit dem f4er 70-200 von Sony ist die A7S III super handlich. Das kenne ich von der S1 in selber Ausstattung anders....



Antwort von Axel:

Tilta (die mit dem Kühlaggregat für die Canon R5, die aber softwaremäßig auf Selbstverbrennung programmiert ist) haben ein fetziges A7SIII-Cage-Video hochgeladen, das das Kind im Manne kitzelt. Passend zum martialischen Geschraube habe ich kürzlich auch einen Camouflage-Skin gesehen:
https://youtu.be/2jCHaPjQaXE



Antwort von Mediamind:

Das ist kein Cage sondern ein außerirdischer Transformer. Gute Tarnung :-)
Ich denke der Preistag für den Cage liegt dann bei recht vernünftigen 4199€.



Antwort von Mediamind:

Zu Catalyst Browse: Es geht auch mit Sigma Art Linsen. Ich habe mit dem 85er 1.4er und dem 24-79 f:2.8 aus der Hand gefilmt und die arme Ehefrau gestalkt. Das unbehandelte Material ist total verwackelt, das "gyroscopierte" ist stabil. Und ich habe richtig bei der Aufnahme gewackelt...
Ich habe mit 1/50 aufgenommen, Brandon L. hatte ja darauf hingewiesen, dass ein kurzer ShutterShutter im Glossar erklärt erforderlich ist. Das Ergebnis ist mit 1/50 super stabil, wenn dann aber zuviel Bewegung zu kompensieren ist, schlägt die BEwegungsunschärfe zu und für kurze Augenblicke ist das Bild unscharf. War ja auch so zu erwarten.



Antwort von Axel:

Brandon Li sagt in seinen Ronin S/SC 2 -Reviews, dass man mit Gimbal verwacklungsarm genug ist, um Gyro auch mit proportionalem ShutterShutter im Glossar erklärt zu verwenden (Timestamp):
https://www.youtube.com/watch?v=FrsWAqTia0A&t=502s

Auch hier sieht man wieder das Smartphone als externen Monitor. Wie bereits erwähnt, man kann sich das "Pro"-Paket sparen mit der A7SIII (ich spar mir den ganzen Gimbal, bin eher ein Zhiyun-Typ). Sowohl, was den neuen AF mit Lidar als auch, was die WiFi-Übertragung mit Raven-Eye betrifft, denn die Latenz mit dem kostenlosen ImagingEdge ist wirklich minimal ...



Antwort von klusterdegenerierung:

Lauf hier wohl mal wieder im Tarnkappenmodus rum, was solls.








Antwort von Axel:


Lauf hier wohl mal wieder im Tarnkappenmodus rum, was solls.

Nein, tust du nicht. Ich merkte nur bereits an, dass es (anscheinend) keine iOS-Version gibt.



Antwort von klusterdegenerierung:

Das meine ich nicht, ich spreche permanent hier über das Thema Sony Wifi etc. aber drauf eingegangen wird da bei mir nicht.



Antwort von Mediamind:

Ist nicht böse gemeint aber da bin ich z.B. noch gar nicht. Ich teste intensiv erst einmal die Basics und für mich relevanten Dinge. Wifi ist bei mir erste einmal weit hinten in der Liste. Die Kamera mit Gimbal und ohne internen Stabi, dafür aber gyrostabilisiert, dass ist für mich die heiße Sch****.



Antwort von Axel:


Das meine ich nicht, ich spreche permanent hier über das Thema Sony Wifi etc. aber drauf eingegangen wird da bei mir nicht.

Du meintest Camoodoo, oder?

Ist nicht böse gemeint aber da bin ich z.B. noch gar nicht. Ich teste intensiv erst einmal die Basics und für mich relevanten Dinge. Wifi ist bei mir erste einmal weit hinten in der Liste. Die Kamera mit Gimbal und ohne internen Stabi, dafür aber gyrostabilisiert, dass ist für mich die heiße Sch****.

Ich schaffe es gar nicht, so viele Sachen auf einmal zu testen.

Anscheinend hat Sony auf Philip Bloom und auf die Katzenfans (inklusive mir, ich spendete auch) mit ihrer Petition gehört, denn Face/Eye Subject: Animal trackt ganz offensichtlich auch die Augen unserer Miezen. Ging noch nicht mit den Vorserienmodellen.



Antwort von klusterdegenerierung:

Nein ich spreche ständig über Wifi/Sony/Gimbal/follow focus Szenarien Test und eigen Erfahrungen und Du eigentlich auch, aber interessanterweise gehst Du auf meine Lösungsansätze die genau in Deinen Interessenbereich fallen nicht ein, wer weiß, vielleicht übersiehst Du sie als vielschreiber.



Antwort von Axel:


Nein ich spreche ständig über Wifi/Sony/Gimbal/follow focus Szenarien Test und eigen Erfahrungen und Du eigentlich auch, aber interessanterweise gehst Du auf meine Lösungsansätze die genau in Deinen Interessenbereich fallen nicht ein, wer weiß, vielleicht übersiehst Du sie als vielschreiber.

Was ich für die A6500 alles für Zubehör angeschafft habe! Schlechtes Monitoring (für Gimbals), da Display bei UHD stark gedimmt wurde, schlimmer Rolling ShutterShutter im Glossar erklärt, nur unter guten Bedingungen brauchbarer AF, die kürzeste Akkulaufzeit, die ich erlebt habe, schlechter als die der Ur-Pocket. Die Kompensation für diese Schwächen war der ganze Gimbal-, Rigging- und Monitoringkram (angefangen sogar bei einer VR-Brille!). Danke Sony für diesen Tamagotchi von einer Kamera! You love the prodrigal son the most.

Jetzt? Gutes Monitoring (es gibt den Akkufresser "Sunny Weather"), je nach Beanspruchung so knapp zwei Stunden Akku (oder praktisch unendlich durch eine schnöde über USB-C verbundene 20€-Powerbank), praktisch kein Rolling ShutterShutter im Glossar erklärt mit zusätzlich sehr brauchbarem IBIS, extrem guter AF.

Mein Traum war schon vor ungefähr zwanzig Jahren extremer sDoF in einer "Plansequenz" (Glidecam, heute Gimbal), bei der ich dennoch den Fokus manuell bestimmen konnte, also "shot transitions". Mätzchen? Gewiss. Ich baute schlecht funktionierende mechanische Remote-Follow-Fokusse aus Fahrradbremsen und später schlecht funktionierende elektrische aus Modellauto-Servomotoren.

All das kann ich seit einer Woche ohne Zusatzgedöns. Wenn ich will bei existing light. Wenn ich will in 4-facher oder 8-facher Zeitlupe. Wenn ich meine, es zu brauchen, kann ich mein Telefon direkt mit der Kamera koppeln und das Bild kontrollieren und sogar die Schärfe ziehen, buchstäblich mit der Fingerspitze. Plötzlich funktioniert alles.

Ich weiß nicht mehr, wer das gesagt hat, Aleister Crowley? Das Problem mit der Magie ist, dass sie nicht funktioniert. Jedenfalls ist da was dran. Wenn etwas funktioniert, haben wir ein Gerät. Etwas, das eine Funktion umsetzt, einen Hammer.

Alles Unfertige hat dagegen etwas Magisches. Die Stützung der chinesischen Wirtschaft durch Ankauf weiterer unfertiger Pseudolösungen ist so eine Art Ablasshandel. Für die Sünde der Unkreativität.

Jetzt halte ich also einen Hammer und suche den Nagel. Ist dies etwa das Ende der Next Camera Disorder? Da lachen ja die Hühner.



Antwort von klusterdegenerierung:

Also persönlich sprach ich nur von meinen Erfahrungen mit der Combi Alpha und Handy und wie gut das funzt und was daraus alles resultieren kann, trotzdem wird da kaum drauf eingegangen und alle brechen sich aber einen mit Kabel und Moni ab und erwähnen dann und wann mal das die Combi Handy Sony (Gimbal/Sony/Handy) ja auch gehen soll, punkt, als wenn ich hier noch nie darüber geschrieben hätte wie gut das geht und welche Möglichkeiten das eröffnet.

Dann kommt ein brendon daher und plötzlich regt sich was, aber so wirklich auch nicht, obwohl dies sogar die meißten Probleme und Notwendigkeiten einer hier besprochenen Cage Lösung zerschlagen würde.

Manchmal frage ich mich, ob man hier nur des Diskutierens wegen diskutiert und garkeine Lösung wünscht?
Wäre ja auch schön blöd, so hätte man ja nix mehr zum quatschen. ;-)



Antwort von Mediamind:

Ich glaube, es ist einfach schlichter. Bei der A7SIII habe ich bisher kein Verlangen nach zusätzlichem Equipment wie Apps, Smartpohnesteuerung, Cage.... In der Vergangenheit hatte ich die App "Fieldmonitor" im Einsatz. Irgendwie ist das alles nicht so erforderlich. Person tracken und das war es. Der AF ist einfach eine andere Nummer. Das Bedürfnis, einzugreifen ist meinem Dafürhalten nach deutlich geringer geworden.
Bereits vor der A7SIII hatte ich ein Instamic mit einem Tentacle als Bluetooth TC Sync Lösung im Einsatz. Der kleine Tentacle ist derzeit das einzige Equipment, welches ich auch auf der A7SIII einsetze. Wenn Cage und Gedöhne, dann nehme ich die GH5/GH5s oder die Z6 mit Ninja. Das Arbeiten mit der A7SIII ist (für mich) anders. Am Wochenende werde ich allerdings trotzdem mal die A7SIII auf den Gimbal setzten und mit dem 85er schauen, wie das dann mit Gyro aussieht. Aber auch da würde ich kein Handy zusätzlich wollen.



Antwort von cantsin:


Bereits vor der A7SIII hatte ich ein Instamic mit einem Tentacle als Bluetooth TC Sync Lösung im Einsatz.

Kleine Nachfrage: Wie koppelst Du Tentacle und Instamic?








Antwort von Mediamind:

Ganz einfach und leider nirgends im Detail beschrieben: Beim Aufnahmebeginn liest das Instamic den BT TC des Tentacles und verwendet ihn. Der Sync erfolgt nur einmal und wirklich nur zu Beginn der Aufnahme. Ich habe 5 Teantacles. Bei einem Dreh hatte ich sie praktisch alle im Einsatz, das Instamic war umzingelt von Tentacles und trotzdem hatte ich keinen TC im Instamic. Das ist mir mehr als einmal passiert. Dann habe ich Reichweitentest gemacht. Mal bekam das Instamic den TC noch aus 10 Metern mit, dann war auch schon einmal bei 1,5 Metern Schluss....
Wenn man Record über die App im direkten Nahbereich eines Tentacles (10 cm) startet, ist die TC-Übernahme bei allen Aufnahmen vorhanden. Ich hatte übrigens auch erst gedacht, das Instamic würde mir in der Tentacle App angezeigt. Es gibt leider keine Kontrolle, ob der TC per BT genommen wurde oder nicht. Ich habe dem Hersteller hierzu Feedback gegeben. Ansonsten ist die Soundqualität erstaunlich gut und der Einsatz spielend leicht.
Ach ja: Bei einer Aufnahme hatte ich einen gemessenen Versatz von 7 Frames zwischen der S1, ZoomZoom im Glossar erklärt F6 und dem Instamic.Kamera und Recoder hatten beide ihre Tentacles "an Boord". Das hat sich seither jedoch nicht wiederholt.



Antwort von Mediamind:

Frisch und neu, das FW Update auf Version 1.02:
https://www.sony.de/electronics/support ... s/00017015

Vorteile und Verbesserungen
Behebt ein Problem, bei dem die FTP-Übertragung unter Verwendung bestimmter USB-LAN-Adapter fehlschlagen kann
Hinweis: Nicht alle USB-LAN-Adapter funktionieren garantiert ordnungsgemäß
Verbesserte Verbindungsstabilität des USB-Tethering mit iPhone
Hinweise:
Derzeit unterstützt die USB-Tethering-Funktion noch nicht iOS 14
Wir empfehlen die Verwendung eines Smartphones und eines USB-Kabels, die USB-PD (USB-Stromversorgung) unterstützen
Verbessert die Stabilität der Kamera



Antwort von cantsin:


Ganz einfach und leider nirgends im Detail beschrieben: Beim Aufnahmebeginn liest das Instamic den BT TC des Tentacles und verwendet ihn. Der Sync erfolgt nur einmal und wirklich nur zu Beginn der Aufnahme.

Aber vermutlich nur dann, wenn man das Instamic über seine Smartphone-App startet bzw. kontrolliert?



Antwort von Mediamind:

Nein, auch über den Schalter am Instamic selbst holt sich das Mik den TC. Dazu hatte mir Instamic geschrieben:
Nice that you are using the Tentacle Tc. I do it too and I love it.
Instamic reads the TC every time you trigger record. No need to re-sync or jam sync anything other than your cameras.



Antwort von Axel:

Manchmal frage ich mich, ob man hier nur des Diskutierens wegen diskutiert und garkeine Lösung wünscht?
Quatsch, natürlich suchen wir die Lösung. Aber gerade im Zusammenhang mit dem Threadthema ist "Gimbal/Sony/Handy" etwas OT, weil die Direktverbindung Kamera > Handy besser funktioniert als zumindest der Zhiyun-Transmitter via HDMI. Letzteres sind mehr Klicks/Wipes, der Lag ist etwas größer, und das Kästchen braucht wenigstens zwei zusätzliche Kabel und hat auch ein Eigengewicht. Zu all dem ist das letzte Wort bestimmt noch nicht gesprochen. Weil, wann hattest du eine Kamera für sieben Tage (neben deiner Arbeit) und hattest Zeit, sie gut zu kennen?

Dieser Thread ist eine Kennenlern-Beschleunigung, zumindest habe ich Mediamind so verstanden. Und ein Bugbuster- und Problemlöser-Thread.

Wäre ja auch schön blöd, so hätte man ja nix mehr zum quatschen. ;-)

Oh, keine Bange, kluster. Wir finden immer was zum Quatschen.



Antwort von Mediamind:

Ergänzende Erkenntnis zu Catalyst Browse:
Wenn die Medien mit FCPX importiert werden, sind die Gyrodaten futsch. Also erst mit Catalyst den Clip finden und dann stabilisiert exportieren, anschließend in FCPX den stabilisierten Clip importieren. Weitere Erkenntnis: Auch die mit der A7S III mit Steady Shot aufgenommenen Ckiops enthalten Gyrodaten. Dann wird es aber häßlich, weil die Gyrodaten nicht mit dem Stabi abgeglichen sind uns sich somit komplett unbrauchbare Ergebnisse (schlechter als ohne Gyrostabilisierung) erzielen lassen.



Antwort von klusterdegenerierung:

Das man in Catalyst die Thumbansicht nicht nach Datum sortieren kann, ist für mich schon wieder ein Ausschlußkriterium.



Antwort von Mediamind:

Das Programm ist richtig schlecht. Es hat nur einen einzigen Zweck (für mich): Stabilisieren. Ich würde nur in ausgewählten Situationen von der Gyrostabilsierung Gebrauch machen. In diesen Fällen ist sie aber der Hammer. Bisher hatte ich nur Material, bei dem der YT ohne Gimbal rum rennt und dann in der Post stabilisiert. Dieser Anwendungsfall ist für keine Option. Aber aus der Hand einen Schwenk mit längerer BrennweiteBrennweite im Glossar erklärt, da sieht die Welt ganz anders aus. Heute war ich mit meinem Haushaltsvorstand in der Essener Keith Haring Ausstellung und habe ein paar Clips für die Gyrostabilisierung ohne IBIS gemacht, das Ergebnis macht Freude. Ich werde die Szenarien für mich im Einzelnen testen. Besser wäre übrigens ein PluginPlugin im Glossar erklärt, welches das Thema innerhalb von FCPX erledigt.



Antwort von Axel:

Finde auch, dass die Gyro-Stabilisierung besser ein PluginPlugin im Glossar erklärt sein sollte. Hab übrigens auch überall trotz Steadyshot die Gyrodaten.

Was ich an Catalyst Browse immer gut fand bei Sony-Zeug ist, dass die Metadaten detailliert sind. Ausschnitt daraus:
zum Bild https://i.postimg.cc/5tY4rR0B/SCB.jpg

In FCPX fehlen die meisten Informationen (wobei der ShutterShutter im Glossar erklärt Angle auch Quatsch ist, und 1/51 Sekunde gibt's ja eigentlich auch nicht). Dafür ist Catalyst gut: man braucht sich keine Aufnahmenotizen bei Testshots zu machen.








Antwort von Axel:

Neue Erkenntnis zu Autofokus. Ich hatte nie begriffen, wovon Gerald Undone mit seinem "AF ON" überhaupt sprach, aber diese Review an dieser Stelle erklärt es gut:
https://youtu.be/Af9_fGEOAB8?t=208

Also mit anderen Worten, ich fokussiere mal eben automatisch, obwohl ich in MF bin. Die grüne Bestätigung bleibt übrigens aus, wenn der AF "sich nicht sicher ist" (Stilleben). Dann sieht man am MF-Peaking, dass es trotzdem okay ist, und der Fokus pumpt halt nicht. Der Touch-Fokus ist trotzdem präziser.



Antwort von Alex T:

Heute war ich mit meinem Haushaltsvorstand in der Essener Keith Haring Ausstellung und habe ein paar Clips für die Gyrostabilisierung ohne IBIS gemacht, das Ergebnis macht Freude.

Willste mal zeigen? Sowohl Haring als auch die Ergebnisse interessieren mich :-)



Antwort von klusterdegenerierung:

Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und PreviewPreview im Glossar erklärt für Log3 oder Auto und alles ist wieder gut.



Antwort von klusterdegenerierung:

Das kommt aufjedenfall dabei raus wenn man sich einen haufen Equipment kauft und am Ende nicht damit umgehen kann.
Sack und Asche was deprimierend.

https://www.youtube.com/watch?v=6EfuovqQNgo



Antwort von Mediamind:

Die arme.... Welch ein Gestolpere. Genau das meine ich mit "die Sache Schank halten". Zur Freigabe des Films aus dem Folkwangmuseum: das ist rechtlich nicht erlaubt. Aufnahmen durften privat gemacht werden, eine Veröffentlichung schließt das leider nicht mit ein.



Antwort von Mediamind:


Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und PreviewPreview im Glossar erklärt für Log3 oder Auto und alles ist wieder gut.

Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, FramerateFramerate im Glossar erklärt,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.



Antwort von klusterdegenerierung:



Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und PreviewPreview im Glossar erklärt für Log3 oder Auto und alles ist wieder gut.

Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, FramerateFramerate im Glossar erklärt,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.

Hatt damit auf Axels DP Video geantwortet, da war wieder ein Dude der tempörär nicht funktionierenden AF auf Slog schob.



Antwort von klusterdegenerierung:

Am coolsten finde ich den aufgetronten Transmitter an der 12 Tausend Volt Leitung, die auf einen Schlag das ganze Gimbal Konzept @adsurdum führt.
Sogar der Horizont ist extrem schief und man sieht jede Bewegung, schlimmer noch als wenn man sie einfach in der Hand hält.

Ca 8000 Flocken für Footage welches ich mit ner a6600 butterweich aus der Hand hinbekommen würde.
Ich finds mega. :-)



Antwort von Axel:



Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, FramerateFramerate im Glossar erklärt,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.

Hatt damit auf Axels DP Video geantwortet, da war wieder ein Dude der tempörär nicht funktionierenden AF auf Slog schob.

In SLog3 ohne die Funktion (S.47/52) Gamma Display Assist schaut man auf eine total kontrastarme Schwarz-Weiß-Suppe. Gorillas im Nebel. Es ist dann schwierig, äh, motivbasiert manuell scharfzustellen (wiewohl das PeakingPeaking im Glossar erklärt funktioniert). Aber man würde diese Gammafunktion wohl immer benutzen. Die nimmt komplett alle Hemmungen, SLog zu benutzen.

Dein Einwand bezog sich sicher auf das von mir verlinkte Video, in der der Typ behauptete, bei zu bewegungsarmen Bildern und flachem Profil könnte der AF sich nach einer Weile langweilen und zu pumpen anfangen. Das ist, wie sehr viele beiläufige Infos aus Reviews, total irreführend.

Wenn Gesichter und später Augen Priorität haben und getrackt werden, gibt es keine Probleme. Bei einem Interview würde der Fokus auch nach einer Stunde noch "kleben" (wie Bloom sagte, er ist sticky).

Brandon Li hat gesagt (und demonstriert), wann dieser AF aufhören kann, zuverlässig zu arbeiten: wenn Augen, Gesichter und Tracking-Muster alle für länger als vier Sekunden verschwinden.

Wie ich auf die vier Sekunden komme? Ich kann 21,22,23,24 zählen, und bevor ich 24 zuende gesagt habe, springt der AF auf das neue Motiv, wenn ich (S.22/52) AF Subj.Shift Sensitivity auf "1" (Locked On) gestellt habe. Bei "5" (Responsive) bekomme ich einen wirklich kontinuierlichen AF, der bei unklaren Verhältnissen auch pumpen kann. Ich finde "3", die Mitte, ideal und sehe keinen Grund, das zu verstellen.

Was ist denn mit einem einstündigen Interview, bei dem die Person lebhaft gestikuliert und ich damit rechnen müsste, dass sie - zum Beispiel - für mehrere Sekunden in ihre Hände weint?

Dieses an den Haaren herbeigezogene Beispiel wäre trotzdem kein Problem, weil ich natürlich eine Zone festgelegt habe, in der der AF nach dem der Kamera nächsten Motiv Ausschau hält. Gehen die Prioritäten verloren, würden halt dann die Hände scharfgestellt. Der Trackingrahmen irrt in diesem Bereich verzweifelt herum. Aber er fängt nicht an, auf's Geratewohl andere Muster zu tracken. Ist das Gesicht wieder da (oder ein prägnanter Gegenstand, den man getrackt hatte), setzt er wieder an.

Trotzdem habe ich eben ein Beispiel für die Grenzen der Automatik erlebt, das sich ohne weiteres auf andere Szenarien übertragen lässt. Zum Beispiel auf die kritische Situation Brautkuss. Diesen würde man trypischerweise mit einer eher langen BrennweiteBrennweite im Glossar erklärt aufnehmen. Und auch bei ziemlich weit geöffneter Blende. Die Augen sind zu, die Gesichter im Profil, usw.

Zwei meiner Kater, nennen wir sie nach der Fellfarbe Tiger und Panther, kämpften um einen zerfetzten Karton. 85mm, das ist leider das teligste, was ich habe, Animal Face/Eye AF Priority, Wide. Panther liefert dem AF so gut wie gar keine Anhaltspunkte, gelegentliche Reflexe auf dem Rücken, aber das Tier ist zu schnell, alles passiert in Sekundenbruchteilen. Er wäre komplett unscharf aufgenommen worden. Tiger dagegen hat ein trackingfreundliches Gesicht, das zu allen Gelegenheiten, in der er es der Kamera über das Dreiviertelprofil hin zuwendet, sofort erfasst wird. Das Bild "springt" dann sichtbar in die Schärfe.

Es ist aber in dieser Situation auch manuell sehr schwer zu entscheiden, worauf gerade der Fokus liegen soll. Die einzige Lösung in diesem Fall: BlendeBlende im Glossar erklärt zu. Auf BlendeBlende im Glossar erklärt 9 waren beide Tiere und der Karton im Fokus. Da es aber noch ziemlich dämmerig war, blinkte meine ISO auf "3200" (ich habe einen Auto-ISO-Bereich zwischen 640 und 3200 angegeben, da ich 4000 schon zu rauschig finde). Also verstellte ich von Auto ISO auf 12800. Dann konnte ich sogar BlendeBlende im Glossar erklärt 11 nehmen. Ich beließ den manuellen Fokus, um durch das PeakingPeaking im Glossar erklärt zu sehen, ob die Einstellung okay ist.

Um jetzt nochmal auf die AF ON - Taste zurückzukommen und auf ihre Nutzanwendung. Um es kurz zu machen: ich sehe keine Nutzanwendung, aber vielleicht übersehe ich erneut etwas. Szenario: ich befinde mich im manuellen Fokus, der verhindert, dass die Kamera bei chaotischen Mustern und unklaren Motiven (sich bewegende Katze, egal ob lackschwarz oder tigergestreift) pumpt. Ich drücke AF ON (ich hätte die Taste lieber "Push AF" genannt), und in diesem Augenblick springt der Fokus auf das im vorher eingestellten Fokusfeld nächstgelegene Motiv. Es blitzt kurz ein grüner Rahmen auf, und sobald ich die Taste loslasse, flimmert das Peaking.

Okay, wenn jetzt, wie bei Brandon Lis Demonstration des verlorenen Trackings, ein Baum im Vordergrund das Gesicht seiner Freundin verdeckt, nützt mir die Taste nichts. Oder? Wie?
Wenn ich zuvor im AF gewesen bin, würde mir eher (S.17/29, nur erreichbar über 42/52 - Movie Custom Key Setting, ein "Osterei") der AF/MF Selector Hold - Button etwas nützen, wenn er auf einer gut erreichbaren Taste liegt, z.B. dem roten Movie Button.

Meine Freundin wird getrackt, mit aller künstlichen Intelligenz, derer sich die Kamera brüstet. Ein Baum kommt im Vordergrund ins Bild, verdeckt sie. Jetzt habe ich anderthalb Sekunden (AF Subj.Shift Sensitivity auf "3" , der von mir vorgeschlagenen Mitte), um den AF durch Gedrückthalten der Taste zu pausieren. Ist der Baum durch, lasse ich die Taste los. Klingt gut, oder? Ist zugegebenermaßen noch nicht erschöpfend praxiserprobt, funtioniert aber auf dem Schreibtisch ;-)

Außerdem ist MF nicht mehr notwendig gleichzusetzen mit Drehen am Fokusring. Tippen auf das Motiv ist schneller und verlässiger und funktioniert ja auch in MF.








Antwort von klusterdegenerierung:


Meine Freundin wird getrackt, mit aller künstlichen Intelligenz
Oh, das tut mir total leid und hat sie nicht verdient.
Ich hoffe es geht ihr dennoch gut und bestelle mal beste Grüße.



Antwort von klusterdegenerierung:


Ich kann 21,22,23,24 zählen
Komisch, ich komme da auf glatte 90.



Antwort von cantsin:

Die Frage ist, wieviele der neuen, nützlichen Funktionen der A7S III (Autofokus, 10bit, Menüstruktur) auch der Nachfolger der A7iii erhalten wird, und dann zum niedrigeren Preis...



Antwort von Axel:


Die Frage ist, wieviele der neuen, nützlichen Funktionen der A7S III (Autofokus, 10bit, Menüstruktur) auch der Nachfolger der A7iii erhalten wird, und dann zum niedrigeren Preis...

... und wahrscheinlich mit der für die anderen Produktreihen typischen höheren Sensorauflösung. An den 12MP ist ja das Lowlight-Alleinstellungsmerkmal, wie wir gesehen haben, gar nicht festzumachen.

Das "S" soll für sensitivity stehen, für Lichtempfindlichkeit. Allerdings wohl kaum für angenehmes Rauschverhalten bei höheren ISOs. Offenbar verhalten sich größere Senseln wie größere Schneeflocken. Man sieht an PRAW, dass das ungeglättete Rauschen sehr extrem aussieht. In denselben Situationen ist die Kamera aber in ISO 640 heller als meine A6500 in ISO 800 (deren Base ISO), und zwar sehr deutlich, um schätzungsweise mehr als eine volle Blende. Darum halte ich den ganzen Tanz um Lowlight für verfehlt. Eine gute Faustregel für rauscharme Aufnahmen ist, dass das Bild im Sucher nie heller sein darf als was das Auge sonst sehen kann. Eins zu eins. Ob das eine 24MP (oder höher)- Kamera hinkriegt?

Naja, eventuell dadurch, dass das Rauschen stärker gedithert ist.

Bliebe noch die Schnelligkeit, mit der der Sensor jetzt ausgelesen werden kann, was Konsequenzen für Rolling ShutterShutter im Glossar erklärt und AF hat und natürlich für Serienfotos.

Aber klar, 10-bit in einer A7IV, das wäre bereits super. Für 2299 Öre (UVP der A7III)? Wer weiß? Aber ich schätze nein.

EDIT:

Die Sony A7 IV soll angeblich in der zweiten Jahreshälfte von 2021 auf den Markt kommen und insgesamt mit einem etwas größeren Gehäuse als die A7 III ausgestattet sein. Verbesserungen seien außerdem sowohl beim elektronischen Sucher als auch beim Display geplant. Letzteres soll nämlich mit 1,44 und nicht mehr mit 0,92 Millionen Bildpunkten auflösen, während der EVF eine Auflösung von 3,68 Millionen Bildpunkten zu bieten haben soll. Bei der Sony A7 III waren es noch 2,36 Millionen Bildpunkte.

Das Herzstück der Sony A7 IV soll ein neu entwickelter Vollformatsensor mit einer Auflösung von 30 Megapixeln bilden. Dieser soll selbstverständlich beweglich gelagert sein und außerdem die Aufnahme von 4K-Videos mit 60 fps ermöglichen. Zu den weiteren Merkmalen der A7 IV sollen der Quelle zufolge Dual SD bzw. CFexpress Type A Kartenslots sowie das Menü der A7s III gehören. Preislich soll die Kamera bei 2.499 Dollar liegen.
Von hier.

entspricht 2899 €.

Was Fotografieren mit der A7SIII betrifft, so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden. Ich würde deshalb am liebsten HEIF statt Raw nehmen (= wie Jpeg, aber in 10-bit), aber Photoshop 2021 kann das nicht lesen. Zweite Faustregel: bei Sony für Raw entweder nur GM oder am besten gleich Sigma Art.



Antwort von klusterdegenerierung:


so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden.

Wie wäre es mit Korrektur abschalten?



Antwort von Axel:



so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden.

Wie wäre es mit Korrektur abschalten?

Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und VignetteVignette im Glossar erklärt krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.



Antwort von cantsin:


Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und VignetteVignette im Glossar erklärt krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.

Auf welches Objektiv bzw. welche Objektive beziehst Du Dich konkret?



Antwort von Axel:

FE35mm 1.8 und FE85mm 1.8. Das SEL2414GM ist etwas besser, aber auch für diesen Preis nicht überragend. Für Nicht-Raw-Video sehen aber alle super aus (ist eher zufällig auch die Brandon-Li-Combo, ich wollte eigentlich das Sigma 40mm, aber Undone und Li fanden das Sony besser).
Was ich damit sagen will: wollte ich in PRAW filmen, käme das noch obendrauf. Fettere und teurere Primes. Das würde nicht nur irgendein Rig, sondern ein ziemlich schweres!



Antwort von cantsin:


FE35mm 1.8 und FE85mm 1.8.

Hmm., die beiden habe ich auch, und da schalte ich (bei RAW-Stills) in RawTherapee die Objektivkorrektur meistens aus, weil ich deren Verzerrung gering finde und die Software-Entzerrung und -Entvignettierung zu einem eher künstlich aufgebrezelten Bild führt...

EDIT -
"Butter bei die Fische":

_DSC1247.jpg
Sony FE 35mm/1.8, Offenblende, ohne Softwarekorrekturen

_DSC1247-corrected.jpg
Sony FE 35mm/1.8, Offenblende, mit Geometrie- und Vignettingkorrektur (Rawtherapee, auf der Basis von Adobes LCP-Datei bzw. Objektivprofil)



Antwort von Axel:



FE35mm 1.8 und FE85mm 1.8.

Hmm., die beiden habe ich auch, und da schalte ich (bei RAW-Stills) in RawTherapee die Objektivkorrektur meistens aus, weil ich deren Verzerrung gering finde und die Software-Entzerrung und -Entvignettierung zu einem eher künstlich aufgebrezelten Bild führt...

Hm. Vergleichst du auch schonmal fertig entwickelte Raws mit Jpegs? Oder machst du gar keine Jpegs?



Antwort von cantsin:


Hm. Vergleichst du auch schonmal fertig entwickelte Raws mit Jpegs? Oder machst du gar keine Jpegs?

Mach i.d.R. keine JPEGs, außer bei Fuji-Kameras (deren interne JPEG-Engine besser ist als die meisten RAW-Konverter).

Hab' oben noch ein Beispiel-Vergleichsbild hinzugefügt.



Antwort von Mediamind:

Bei mir kommt die 2. Iso-Stufe regelmäßig zur Anwendung. Mit oder ohne ND, je nach Verhältnissen. Dadurch zeichnet sich für mich die Lowlightfähigkeit aus. Das Material mit ISO 12800 sieht einfach super aus. Mit Iso 8000 oder 10000 sehe ich erst einmal bei dem was ich so mache keinen nennenswerten Unterschied zur S1. Bei 12800 dreht sich das dann aber. Ist jetzt nicht neu... Die sauberen 12800 sind einfach nur nützlich und eröffnen andere Optionen.
Noch einmal eine weitere Ergänzung zu Catalyst:
Im S&Q Modus werden keine Gyrodaten aufgenommen. Ich habe das heute böse erfahren müssen. Ich hatte am Ronin-S die A7SIII mit dem Sigma 85 DGDN Art. Ohne Stabi und ohne Catalyst.... Ich habe mit 50p aufgenommen und habe das nun euphemistisch als Stilmittel deklariert (ist für die Verwandtschaft). Mache einen Fehler, wiederhole ihn und behaupte es sei künstlerisch wertvoll :-)



Antwort von Axel:

@cantsin
Schönes Portrait, schöner Blick. Da merke ich praktisch nichts. Ich bin, was Verzeichnungen betrifft, so paranoid wie Tiefflieger, was Bewegungsunschärfe betrifft.
@Mediamind.
50p in S&Q? Hast du etwa die CF-Karte gekauft?

Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion BlurBlur im Glossar erklärt gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur FramerateFramerate im Glossar erklärt ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.

Was er auch zeigte ist, dass man bei Zeitlupe eigentlich gar keine Bewegungsunschärfe haben möchte, weil es sowieso nicht mehr um einen natürlichen Bewegungseindruck geht.



Antwort von Cinealta 81:


Noch einmal eine weitere Ergänzung zu Catalyst:
Im S&Q Modus werden keine Gyrodaten aufgenommen.

Genau so ist es.

@Axel

Bedenken Sie im Rahmen Ihrer Erwägungen zu den Optiken, dass die A7S iii (und auch die FX9) bei Verwendung einer Sony-fremden Optik ebenfalls KEINE Gyrodaten aufnimmt. Es geht nur mit E-Mount-Optiken. Wichtig zu wissen, denn dann kann man Gimbals + In-Camera-Steady nutzen und ist nicht enttäuscht, wenn im Nachgang die Catalyst-Stabi nichts hergibt. ;-)



Antwort von klusterdegenerierung:



Wie wäre es mit Korrektur abschalten?

Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und VignetteVignette im Glossar erklärt krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.

Öööh, ich meinte Kamera!!



Antwort von Mediamind:

@cinealta: Gyrodaten werden auch mit den Sigma DGDN Varianten gespeichert. Es muss also nicht immer Sony sein. Ich habe von YT gehört, dass Tamron z.B. nicht ging. Ich kann mich nicht erinnern, welche Optik das war. Der Kanal hört auf den Namen Camera Conspiracies (durchgeknallter Typ, sehr sympathisch)



Antwort von pillepalle:


Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion BlurBlur im Glossar erklärt gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur FramerateFramerate im Glossar erklärt ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.

1/48s in 60p? Das schafft nur Gerald Undone :D Es geht bei seinem Video eher darum, ob man die höheren Frameraten nachträglich verlangsamt (also als Zeitlupe benutzt), oder nicht. Man braucht sich nur an die 180°Regel für ein natürliches Motion blur zu halten, wenn man das Footage als Zeitlupe nutzen möchte. Ansonsten hat auch bei 50p die 1/50s den natürlicheren Motion BlurBlur im Glossar erklärt Eindruck.

VG



Antwort von Axel:



Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und VignetteVignette im Glossar erklärt krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.

Öööh, ich meinte Kamera!!

Probier ich gerade mal aus. Nur Mut, Axel ...

@cinealta: Gyrodaten werden auch mit den Sigma DGDN Varianten gespeichert. Es muss also nicht immer Sony sein. Ich habe von YT gehört, dass Tamron z.B. nicht ging. Ich kann mich nicht erinnern, welche Optik das war. Der Kanal hört auf den Namen Camera Conspiracies (durchgeknallter Typ, sehr sympathisch)

Okay. Will natürlich auch hier keinen Fehler machen. Was kann man empfehlen als Tele?

Sony 70-200 f4 G?
Vorteile: interner ZoomZoom im Glossar erklärt, leicht und kurz genug für Gimbal, gibt es gebraucht ziemlich häufig.
Nachteile: auf 200 begrenzt.

Sigma 100-400?
Vorteile: reicht doppelt so weit für nur wenig mehr neu
Nachteile: nur Stativ- oder Handbetrieb, Gyrodaten?

Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion BlurBlur im Glossar erklärt gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur FramerateFramerate im Glossar erklärt ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.

1/48s in 60p? Das schafft nur Gerald Undone :D Es geht bei seinem Video eher darum, ob man die höheren Frameraten nachträglich verlangsamt (also als Zeitlupe benutzt), oder nicht. Man braucht sich nur an die 180°Regel für ein natürliches Motion blur zu halten, wenn man das Footage als Zeitlupe nutzen möchte. Ansonsten hat auch bei 50p die 1/50s den natürlicheren Motion BlurBlur im Glossar erklärt Eindruck.

In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?

Ich hielt die 180°-Regel vor Geralds Video für universell.



Antwort von Mediamind:

Ich hatte mich für das 70-200 BlendeBlende im Glossar erklärt vier von Sony entschieden. Die Vorteile gegenüber zum Beispiel Tamron liegen auf der Hand. Die zusätzliche Objektivstabilisierung bringt gerade bei aus der Hand gefilmten Clips eine Menge. Das objektiv ist super kompakt und an der A7S3 eine sehr gute Kombination.



Antwort von pillepalle:


In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?

Weil 1/50s Belichtungszeit länger wäre als Deine 60 Bilder pro Sekunde es zulassen würden. Du kannst maximal einen Shutterangle von 360° haben. Also bei 60p maximal 1/60s als längste Belichtungszeit.

VG



Antwort von Axel:



In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?

Weil 1/50s Belichtungszeit länger wäre als Deine 60 Bilder pro Sekunde es zulassen würden. Du kannst maximal einen Shutterangle von 360° haben. Also bei 60p maximal 1/60s als längste Belichtungszeit.

Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° ShutterShutter im Glossar erklärt entspräche, kann man bei den meisten elektronischen Kameras eine VerschlusszeitVerschlusszeit im Glossar erklärt wählen, die länger ist als die Anzeigedauer eines Einzelbildes. Ich kann z.B. bei 25p einen ShutterShutter im Glossar erklärt von 1/12 Sekunde einstellen. Effektiv habe ich damit zwar die Bildfrequenz halbiert, aber es geht. Blick durch den Sucher: sieht aus wie im Wodka-Vollrausch.



Antwort von Axel:

Guter Überblick über speziell das ProResProRes im Glossar erklärt Raw der A7SIII:
https://youtu.be/EmiEQq2MAeU

Big Sur befindet sich gerade in einer seiner wahrscheinlich letzten Beta-Phasen. Innerhalb von Tagen danach (oder zeitgleich, kam auch schon vor) wird FCP11 herauskommen, ohne Zweifel mit vielen Neuerungen. Welchen Stellenwert Apple dabei PRAW einräumt werden wir ja sehen. Es ist auch die Nagelprobe für FCP-Nutzer. Lässt sich eine Perspektive erkennen, die weitere Investition in Apple Hardware rechtfertigt? Das ist immer spannend. BM hat in den letzten Jahren viel erreicht. Ebenso wie Sony mit der A7SIII die Erwartungen nach all den Jahren übertreffen musste (im Hintergrund kann man sich ebenfalls über die BM-Strategie verbitterte Sony-Bosse denken) kann FCP jetzt mit irgendwelchen lahmen Gimmicks nicht überzeugen. Neben A.I.-Funktionen sollte Wert auf bessere Post-Workflows gelegt werden.



Antwort von manfred52:


Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° ShutterShutter im Glossar erklärt entspräche,

Seit wann sind 1/60s länger als 1/50s?

Der ShutterShutter im Glossar erklärt bei 60p und 1/50s entspricht 432°.




Antwort von Axel:



Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° ShutterShutter im Glossar erklärt entspräche,

Seit wann sind 1/60s länger als 1/50s?

Der ShutterShutter im Glossar erklärt bei 60p und 1/50s entspricht 432°.

Verdammt. Religion eins, Kopfrechnen sechs ...
;-))



Antwort von Axel:


Also persönlich sprach ich nur von meinen Erfahrungen mit der Combi Alpha und Handy und wie gut das funzt und was daraus alles resultieren kann, trotzdem wird da kaum drauf eingegangen und alle brechen sich aber einen mit Kabel und Moni ab und erwähnen dann und wann mal das die Combi Handy Sony (Gimbal/Sony/Handy) ja auch gehen soll, punkt, als wenn ich hier noch nie darüber geschrieben hätte wie gut das geht und welche Möglichkeiten das eröffnet.
(...)

Die A7SIII war einmal über WiFi gekoppelt mit dem iPhone, und WiFi blieb aktiv. Nächstes Öffnen der "Remote" über die ImagingEdge App dauerte heute ca. 10 Sekunden, mit nur zwei Abfragen ("Verbinden?" Weiter. "Remote?" OK). Dann kam das so gut wie lagfreie Vorschaubild. Heute wollt' ich's wissen:
> keine gammakorrigierte Vorschau, d.h. das Bild ist ziemlich grau.
> alle wesentlichen Funktionen steuerbar.
> Touchfokus funktioniert, aber es ist eine Einzel-Berührungs-Auswahl-Scharfstellungs-Programmierung, keine Fadenkreuz-erzeugende-und-beim-Loslassen-den-Tracker-triggernde-Scharfstellungs-Programmierung. Ich tipp auf das Motiv, ein weißer Punkt bestätigt die Berührung, und dahin wandert der Fokus. Dieser weiße Punkt hat einen Durchmesser von ca. 5mm auf dem Smartphone-Display. Das ist die Genauigkeit, die erreicht werden kann. Will man eine KanteKante im Glossar erklärt scharfstellen, muss man unmittelbar daneben tippen, sodass der Rand des weißen Punktes die KanteKante im Glossar erklärt berührt. Tippt man mittig auf die KanteKante im Glossar erklärt, weiß die Kamera offenbar nicht, ob Vorder- oder Hintergrund gemeint sind. Dann pumpt sie für eine Sekunde leicht, und keins von beidem wird scharf gestellt.

Insgesamt sehr brauchbar. Stabiler und verzögerungsärmer als der Zhiyun Transmitter (andere kenne ich halt nicht), und der Touchfokus ist auch - für's Erste - nicht schlecht gemacht.

Potato Jet hat in seinem Menu-Video den Punkt erwähnt:
https://youtu.be/cEgwUyKMj7k?t=1667
Ich bin also hingegangen und hab diese App runtergeladen. Sie hat überall schreckliche Bewertungen. Aber ich weiß eigentlich nicht warum, denn ich fand sie ziemlich cool ...
Ich weiß, wieso sie schlechte Wertungen hatte: weil sie bislang kaum funktionierte. Luft nach oben ist noch immer. Vielleicht gibt's die Camoodoo-App ja auch bald für iOS.

Was Fotografieren mit der A7SIII betrifft, so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden. Ich würde deshalb am liebsten HEIF statt Raw nehmen (= wie Jpeg, aber in 10-bit), aber Photoshop 2021 kann das nicht lesen. Zweite Faustregel: bei Sony für Raw entweder nur GM oder am besten gleich Sigma Art.

Die ImagingEdge-App wies mich auch darauf hin, dass es speziell für die Sony A7SIII einen Heif-Konverter gibt. Bei der Installation wird frecherweise tatsächlich die Seriennummer abgefragt.
https://support.d-imaging.sony.co.jp/app/heif/en/



Antwort von Axel:

OT: Lebewohl Trump. Wie schön, diese Broilerfresse demnächst nicht mehr dauernd zu sehen!

Zurück zum Thema:
Gerald Undone hat auf Twitter das gepostet:
zum Bild https://i.postimg.cc/Gppm2kcQ/Udone-Color-Phase.jpg

Ist ACES wirklich so einfach?
https://youtu.be/ZGxe_-YKi6s

Mit dieser Methode sehen meine Clips nämlich am besten aus, und die Nachbearbeitung ist auch gefühlt flexibler. Vielleicht mag jemand kommentieren?



Antwort von klusterdegenerierung:

Ich hab das ganze tamtam mit ACES auch mal intensiver ausprobiert, aber ich kam nie auf einen halbwegs grünen Zweig, bzw waren die Ergebnisse ohne das ganze tamtam nicht wirklich besser oder einfacher.



Antwort von Frank Glencairn:

Natürlich nicht - ACES lohnt sich nur, wenn du Material von verschiedenen Kameras auf der TimelineTimeline im Glossar erklärt hast.



Antwort von Axel:

Okay, danke schonmal. Kann jemand noch erläutern, was die Nachteile gegenüber einer LUT oder Farbraum-Konvertierung sind?

@kluster
Wieso Tamtam? Scheint doch ganz einfach zu sein ?



Antwort von roki100:

Was scheinbar wenige kennen ist DaVinci Resolve DCTL /ACES and OFX Plugins

https://www.youtube.com/watch?v=rOdm-Kf-Nj8

https://www.youtube.com/watch?v=EeUSQvEvFgw



Antwort von cantsin:


Natürlich nicht - ACES lohnt sich nur, wenn du Material von verschiedenen Kameras auf der TimelineTimeline im Glossar erklärt hast.

Aber auch, wenn man ein Projekt später in verschiedene Farbräume bringen will (wie z.B. P3 und Rec2020 neben Rec709) und dafür im möglichst großen Farbraum mastern will - natürlich vorausgesetzt, dass das Kameramaterial in einem größeren Farbraum als Rec709 vorliegt. (Was aber beim SLog3+SGamut der A7sIII der Fall ist.)



Antwort von Axel:

Also nochmal: Lässt sich der "Workflow" auf das reduzieren, was in dem von mir verlinkten Video erwähnt wird? Eine einmalige Projekt-Voreinstellung? Und danach, da ich sowieso nur SLog3 habe, kein weiteres "Tamtam"?

Denn *allem Anschein nach* habe ich sowohl im Schnitt eine normalisierte Ansicht als auch in der FarbkorrekturFarbkorrektur im Glossar erklärt keine Einschränkung, verglichen mit Konvertierung oder LUT ...



Antwort von klusterdegenerierung:

Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?



Antwort von Alex T:


Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?
Hier! Ich! Ich! Und nein, noch nicht gelöst. Bzw. die Lösung mit externem Rekorder ist nix für mich. Und es war die A7III ohne "s" ;-)



Antwort von Mediamind:

Bei der A7SIII funktioniert das Facetracking auch mit Recorder. Das Problem war in der tat bei der A7III bekannt. Ich habe das sowohl in RAW als auch mit der normalen Aufzeichnung ohne Einschränkungen probiert.



Antwort von klusterdegenerierung:



Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?
Hier! Ich! Ich! Und nein, noch nicht gelöst. Bzw. die Lösung mit externem Rekorder ist nix für mich. Und es war die A7III ohne "s" ;-)

Öh, jetzt stehe ich auf den Schlauch, heißt das jetzt, nein Du brauchst keine Lösung weil Du keinen Recorder nutzen möchtest?
Heißt das jetzt, nein Du brauchst keine Lösung weil Du keinen Recorder nutzen möchtest, weil Facetracking nicht funktioniert?

Heißt das jetzt, Du würdest einen Recorder nutzen wenn Du eine Lösung hättest?
Heißt das jetzt, Du möchtest eine Lösung? :-))

Heißt das jetzt, nein Du brauchst keine Lösung weil Du eh keine A7III nutzt?
Danke an Mediamind! :-)



Antwort von Alex T:

Also: Ich kenne nur die eine Möglichkeit das Facetracking mit HDMI-Anschluss zu erhalten, das wäre mit externem Rekorder. Ich will aber intern aufzeichnen.

Oder andersrum: Wenn du eine Lösung hast die mit interner Aufzeichnung funktioniert, dann gern her damit.

P.S.: Aktuell ist die A7III als B-/Gimbal-Cam im Einsatz.



Antwort von klusterdegenerierung:

Nö, das wäre dann auch meine Lösung gewesen, die ich bislang nicht kannte.
Die Frage die aber gestellt werden darf, wenn man eh mit mit Atomos unterwegs ist, warum dann auch intern, aber es geht ja "auch nicht", wenn man "nur" einen Monitor benutzt, das hatte ich bislang garnicht berücksichtigt.

Auf der anderen Seite betraf mein Einwand aber auch die User mit Recorder, die ja out of the Box erstmal das selbe Problem haben und wahrscheinlich garnicht wissen, wie sie dieses Problem umgehen können.

So stellt es sich zumindest dar, wenn man mitbekommt wie viele recorder user darüber klagen, das sie kein Facetracking nutzen können.

Also: Ich kenne nur die eine Möglichkeit das Facetracking mit HDMI-Anschluss zu erhalten, das wäre mit externem Rekorder. Ich will aber intern aufzeichnen.
So und das inkludiert leider nicht ganz die Lösung, denn User mit Recorder haben das selbe Problem wie jene mit Monitor.



Antwort von Axel:


Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?

Ich habe ja keinen externen Recorder. Und soweit ich weiß funktioniert Facetracking auch mit dem Atomos - bei der A7SIII, vielleicht nicht bei der A7III -, lediglich Touchfokus nicht (aber da bin ich jetzt zu faul, Blooms einstündige Review zu reviewen).

Lass mal hören, bitte. Ist zwar relativ unwahrscheinlich, dass ich mir den Ninja hole (aber wer weiß? Am Dienstag und am Mittwoch gibt's ja interessante neue Enthüllungen von BM und Apple), aber wenn, dann weiß ich's vorher.

Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme. Ziemlich lang, darum fasse ich's zusammen:
Es ist nicht die Kamera! Wer mit den Sony-Vorläufern keine guten Videos hinkriegt, der wird auch an der A7SIII scheitern!
Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).

Trotzdem bin ich überzeugt davon, dass PRAW theoretisch sehr viel besser ist als XAVC. Nämlich dann, wenn es vernünftig implementiert ist, bzw. wäre. Ich bin momentan noch am Ball, was den CC-Workflow betrifft. Hier Screenshots (in Resolve mach ich natürlich "Grab Still") von drei Alternativ-Methoden (die vierte, das Graden ohne alle Konvertierung, lass ich jetzt mal außen vor). Alle ohne sonstige Änderung:
zum Bild https://i.postimg.cc/wMnGRV7P/Color-Space-Transform.jpg
Color Space Transform

zum Bild https://i.postimg.cc/d1pbGvf4/LUT-SLog3 ... Type-A.jpg
LUT-SLog3-zu-Rec709-Type-A

zum Bild https://i.postimg.cc/FsmP8700/ACES.jpg
ACES

Der Witz an ACES ist, dass es sich tatsächlich in den normalen Lift-Gamma-Gain-Offset-Werkzeugen anfühlt wie Raw im Camera-Raw-Modul:
https://youtu.be/GZ90OZlUTSg

Du / cantsin / Frank Glencairn seid mir noch einen Hinweis darauf schuldig, wieso ACES unnötiger "Tamtam" ist. Worin bestünde der Mehraufwand?



Antwort von cantsin:


Du / cantsin / Frank Glencairn seid mir noch einen Hinweis darauf schuldig, wieso ACES unnötiger "Tamtam" ist.

Das habe ich nicht geschrieben! Ich hatte nur Franks Anmerkung relativiert, dass sich ACES nur lohne, wenn man das Material verschiedener Kameras mischt. Aber IMHO spricht auch nichts prinzipiell gegen ACES, wenn nur mit einer Kamera gedreht wurde und das Ziel Rec709 ist.

In der Praxis läuft es wohl auf die Qualität der jeweiligen individuellen LUTs, IDTs oder sonstigen Farbraum-Transformationsfunktionen, wie auch in Deinen Beispiel-Screenshots. (Also: ACES mag in der Theorie der bessere Workflow sein, ist es aber in der Praxis nicht, wenn die IDTs für ein bestimmtes Kameramodell schlechter sind als die Hersteller-LUTs und umgekehrt, etc.)

Selbst versuche ich LUT-Workflow mittlerweile so weit wie möglich zu vermeiden, weil LUTs destruktiv sind, und bei anderen Transformationen in Resolve Tone Mapping möglich ist, was ein echter "Live Saver" ist, wenn man von größeren Farbräumen und Dynamikumfängen in kleinere wie Rec709 konvertiert, ohne bei jedem Clip händisch die Kurven absenken zu müssen.

EDIT:
Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme.
Was für ein angenehmer, kompetenter, sachlicher und eloquenter Typ (vor allem im Vergleich zu den überdrehten Influencern und sonstigen YouTube-Staubsaugervertretern).



Antwort von Axel:

Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme.
Was für ein angenehmer, kompetenter, sachlicher und eloquenter Typ (vor allem im Vergleich zu den überdrehten Influencern und sonstigen YouTube Staubsauger-Vertretern).

Besonders doof fand ich kürzlich Matti Haapoja.
Aber es gibt einige Nachteile . Es ist zum Beispiel viel schwieriger farbzukorrigieren, denn es ist so flach, dass du unheimlich viel tun musst, um es zu einem Punkt zu bringen, wo es mal ein bisschen Kontrast hat. Ja, du kannst einige LUTs oder Konversion-LUTs benutzen dafür, aber irgendwie hab ich das Gefühl, die machen noch nicht so einen richtig guten Job. Und dann die Zebras! Wenn du die nämlich auf "100" oder "100+" setzt, kriegst du sie nie zu Gesicht. Weil es gar nicht bis zu diesem Punkt reicht. Der Workaround ist, dass du die Zebras so weit runterdrehst, bis sie erscheinen. Das ist ein weiteres kleines Ärgernis ...

Ich gucke z.Zt. trotzdem noch (fast) jeden Scheiß, denn zwischendurch sind kleine Entdeckungen und Tricks enthalten.



Antwort von klusterdegenerierung:


vielleicht nicht bei der A7III -, lediglich Touchfokus
Lass mal hören, bitte. Ist zwar relativ unwahrscheinlich, dass ich mir den Ninja hole (aber wer weiß?

Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).

Öh, Slog3 ist kein Gegenteil von PRaw, da passt was nicht zusammen.
Wer mit der A7III facetracking bei Recordern nutzen möchte, muß die interne Aufnahme auf SD deaktivieren.

Darauf muß man natürlich erst mal kommen.



Antwort von Alex T:

Wer mit der A7III Facetracking bei Recordern nutzen möchte, muss die interne Aufnahme auf SD deaktivieren.

Darauf muss man natürlich erst mal kommen.

Ich habe es live beim Job erlebt, konnte es aber auch erst nach der Arbeit aufklären. Die Cam war noch recht neu, eigentlich war es mein erster Job mit ihr. Und ich dachte dauernd, dass das Facetracking doch recht unzuverlässig ist, weil das Quadrat im Gesicht nicht zu sehen war.
Die Cam macht zwar auch ohne Gesichtserkennung immer noch AF aber lange nicht so gut wie mit.
Und ich bilde mir auch ein, dass die Kamera etwas besser aufs Gesicht belichtet bei Auto-ISO, bin mir aber nicht 100% sicher. Sinn würde es aber ergeben.

Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.



Antwort von Mediamind:

Die A7SIII macht vieles richtig. Dass der AF bei der A7III mit einem Ninja ausfällt ist wirklich nicht nett. Auf der anderen Seite sind die 8 BitBit im Glossar erklärt auch kein guter Grund einen Recorder anzustöpseln. Ehrlich gesagt werden die Gründe für einen Recorder bei der A7SIII immer weniger. Wenn ich nicht auf das schmale Brett RAW möchte, ist der Mehrwert überschaubar.
ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.



Antwort von Axel:

Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.

Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).

ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.

Okay, unterschiedliche Kameras anzugleichen, das scheint wirklich ein bisschen "Tamtam" zu sein. Bei einer Kamera in Resolve scheint es aber nicht so wild zu sein. Es gibt zwei Alternativen, eine mit und eine ohne Resolve Studio-Lizenz (Resolve "Lite" importiert kein XAVC in 10-bit), beide total einfach:

a1) In FCP X schneide ich inklusive Retiming und Reframing. KEINE ÜBERBLENDUNGEN! Breiter Gamut HDR für die Mediathek, 709 für das Projekt, allen Clips spende ich die Kamera-LUT SLog3. Ist der Schnitt fertig, stelle ich das Projekt auf rec_2020 und entferne die LUT, dann teile ich es als ProResHQ, mit dem Titel A7SIII-Test-Katzen-Log.

a2) In Resolve "Lite" navigiere ich zum Speicherort der A7SIII-Test-Katzen-Log. Ich mache einen Rechtsklick darauf und wähle ...
zum Bild https://i.postimg.cc/dtKWstDB/Scene-Cut-Detection.jpg
... Scene Cut Detection. Danach öffnet sich ein Fenster im Sinne von erkenne Schnitte und importiere die TimelineTimeline im Glossar erklärt als Einzelclips. Du kannst und solltest die durch die Analyse erkannten Schnitte bestätigen oder korrigieren. Sollten 99% Treffer sein.

a3) Ich lege in den Projekteinstellungen (Zahnrad unten rechts) ACES als Color Management fest:
zum Bild https://i.postimg.cc/4djX7Hjn/Color-Management.jpg

a4) Ich springe direkt in's "Color"-Tab. Die Werkzeuge sind sehr ähnlich wie die in FCP, lediglich über Nodes solltest du dich kundig machen. In Resolve macht die FarbkorrekturFarbkorrektur im Glossar erklärt definitiv mehr Spaß.
a5) Am Schluss gehe ich in's Deliver-Tab, das zwar nicht ganz selbsterklärend ist, aber so ungefähr anhand eines 5-Minuten-Tutorials verstanden werden kann.

MIT Resolve-Studio-Lizenz:
b1) Ich exportiere aus FCPX nach dem Schnitt eine XML (für Resolve am besten immer neueste Version wählen).
b2) Ich öffne Resolve, dann gehe ich zu >File >Import TimelineTimeline im Glossar erklärt >AAF, XML usw.
b3) Ich bestätige im Dialog, dass Sizing-Information übernommen werden soll, aber nicht Color-Information.
b4) von da an wie a3)

Normalerweise werden Timing-Informationen gut transferiert. Ken Burns usw. klappt weniger zuverlässig, das würd ich vorher einbacken (schon in FCPX exportieren, re-impotieren und in der TimelineTimeline im Glossar erklärt ersetzen).

In FCPX gibt's ja kein ACES. Wenn du dort bleiben wolltest, würde ich eine schöne LUT suchen (bin da kein Experte, ich höre immer was von Venice oder Leeming) und sie, zack!, auf einen über die gesamte TimelineTimeline im Glossar erklärt gezogenen Adjustment-Layer (über >Effekte >Farbe >Eigene LUT) anwenden. Ich hab das Gefühl, die "Kamera-LUTs" im Inspektor sind nicht das Grüne vom Ei ...
bei unterschiedlichen Kameras, die untereinander angepasst werden müssen, gibt es mW nichts in FCPX direkt. Color Finale Pro (und irgendein weiteres CC-Plugin) liefern die Möglichkeit mit so einer Colorchecker-Tafel die Farben anzugleichen.



Antwort von Axel:

Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.

Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).

ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.

Es gibt zwei Alternativen, eine mit und eine ohne Resolve Studio-Lizenz (Resolve "Lite" importiert kein XAVC in 10-bit), beide total einfach:

a1) In FCP X schneide ich inklusive Retiming und Reframing. KEINE ÜBERBLENDUNGEN! Breiter Gamut HDR für die Mediathek, 709 für das Projekt, allen Clips spende ich die Kamera-LUT SLog3. Ist der Schnitt fertig, stelle ich das Projekt auf rec_2020 und entferne die LUT, dann teile ich es als ProResHQ, mit dem Titel A7SIII-Test-Katzen-Log.

a2) In Resolve "Lite" navigiere ich zum Speicherort der A7SIII-Test-Katzen-Log. Ich mache einen Rechtsklick darauf und wähle ...
zum Bild https://i.postimg.cc/dtKWstDB/Scene-Cut-Detection.jpg
... Scene Cut Detection. Danach öffnet sich ein Fenster im Sinne von erkenne Schnitte und importiere die TimelineTimeline im Glossar erklärt als Einzelclips. Du kannst und solltest die durch die Analyse erkannten Schnitte bestätigen oder korrigieren. Sollten 99% Treffer sein.

a3) Ich lege in den Projekteinstellungen (Zahnrad unten rechts) ACES als Color Management fest:
zum Bild https://i.postimg.cc/4djX7Hjn/Color-Management.jpg

a4) Ich springe direkt in's "Color"-Tab. Die Werkzeuge sind sehr ähnlich wie die in FCP, lediglich über Nodes solltest du dich kundig machen. In Resolve macht die FarbkorrekturFarbkorrektur im Glossar erklärt definitiv mehr Spaß.
a5) Am Schluss gehe ich in's Deliver-Tab, das zwar nicht ganz selbsterklärend ist, aber so ungefähr anhand eines 5-Minuten-Tutorials verstanden werden kann.

b1) Ich exportiere aus FCPX navh dem Schnitt eine XML (für Resolve am besten immer neueste Version wählen).
b2) Ich öffne Resolve, dann gehe ich zu >File >Import TimelineTimeline im Glossar erklärt >AAF, XML usw.
b3) Ich bestätige im Dialog, dass Sizing-Information übernommen werden soll, aber nicht Color-Information.
b4) von da an wie a3)

Normalerweise werden Timing-Informationen gut transferiert. Ken Burns usw. klappt weniger zuverlässig, das würd ich vorher einbacken (schon in FCPX exportieren, re-impotieren und in der TimelineTimeline im Glossar erklärt ersetzen).

In FCPX gibt's ja kein ACES. Wenn du dort bleiben wolltest, würde ich eine schöne LUT suchen (bin da kein Experte, ich höre immer was von Venice oder Leeming) und sie, zack!, auf einen über die gesamte TimelineTimeline im Glossar erklärt gezogenen Adjustment-Layer (über >Effekte >Farbe >Eigene LUT) anwenden. Ich hab das Gefühl, die "Kamera-LUTs" im Inspektor sind nicht das Grüne vom Ei ...



Antwort von klusterdegenerierung:

Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!



Antwort von Axel:


Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!

Danke, denke, jetzt passt's.



Antwort von roki100:

Bei den gezeigten Bilder, sehe ich zwischen LUT-SLog3-zu-Rec709-Type-A und ACES kaum ein Unterschied? Ich denke, wenn man bei LUT-SLog3-zu-Rec709-Type-A den Color Regler auf +5 oder max. auf +10 erhöht, dann sieht man gar kein unterschied?



Antwort von klusterdegenerierung:



Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!

Danke, denke, jetzt passt's.

?
Sorry, meine Fragen/posts scheinst Du wirklich nicht gerne zu beantworten, ich gebe es hiermit offiziell auf.



Antwort von Alex T:

Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Zhiyun Crane 2



Antwort von Axel:



Danke, denke, jetzt passt's.

?
Sorry, meine Fragen/posts scheinst Du wirklich nicht gerne zu beantworten, ich gebe es hiermit offiziell auf.

Verzeihung, wie gesagt, mangels eines externen Recorders kann ich nicht beantworten, ob Facetracking bei paralleler XAVC-Aufnahme noch funktioniert. Ich bin hier nur nebenbei auf slashCAM, hab die Kamera vor mir und wechsel noch ständig zwischen Resolve und FCP hin und her.

Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).

Öh, Slog3 ist kein Gegenteil von PRaw, da passt was nicht zusammen.

Gegenteil hab ich nicht geschrieben. Das bezog sich auf das von mir verlinkte Video, in dem der Reviewer sagt, bis auf dass PRAW mehr rauscht, kann ich beim besten Willen keinen Unterschied sehen. Gegenteil ungleich Unterschied.

Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Zhiyun Crane 2

Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?

Bei den gezeigten Bilder, sehe ich zwischen LUT-SLog3-zu-Rec709-Type-A und ACES kaum ein Unterschied? Ich denke, wenn man bei LUT-SLog3-zu-Rec709-Type-A den Color Regler auf +5 oder max. auf +10 erhöht, dann sieht man gar kein unterschied?

ACES ist deutlich etwas dunkler. Vielleicht Gammashift, weil ich nicht 709-Type-A einstellen kann? Muss mal weiterforschen ...



Antwort von klusterdegenerierung:

Axel, das mit dem Praw ist so eine Sache, weil es sowohl 10bit, als auch 12bit 4444 sein kann, je nach interpretation und beides sieht erstmal identisch aus und die Dynamik ändert sich selbstverständlich auch nicht, aber es ist immerhin ein Raw und Du weißt ja von Fotos, was das bedeutet.

Auf ein Raw rauscht mehr als ein jpg, aber trotzdem kannst Du diesen Aspekt getrost vergessen, denn jeder belichtet unterschiedlich gut oder schlecht und das kannst Du bei fremdmaterial nie wissen.

Ich bin gerade dabei einen Unterschied zu checken und wandel gerade das PRaw in ProResProRes im Glossar erklärt 4444 HQ und vergleiche es geben 422 10Bit.
Das wird man aber eh nur beim graden sehen können und sicherlich an einer saubereren Datei.

Werde berichten.



Antwort von Alex T:


Zhiyun Crane 2

Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?
Ja, funktioniert gut: REC, ISO, BlendeBlende im Glossar erklärt, Belichtung. Aber ich verzichte, weil mir Facetracking wichtiger ist, denn das ist eine Offenbarung für gewisse Situationen, besonders auf dem Gimbal. Ich nutze die Cam auf dem Crane 2 ohne Kabel.



Antwort von Axel:



Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?
Ja, funktioniert gut: REC, ISO, BlendeBlende im Glossar erklärt, Belichtung. Aber ich verzichte, weil mir Facetracking wichtiger ist, denn das ist eine Offenbarung für gewisse Situationen, besonders auf dem Gimbal. Ich nutze die Cam auf dem Crane 2 ohne Kabel.

Noch keinen Schimmer mit der A7SIII und dem Weebill S. USB-C kann es nicht sein & Micro-USB ("Multi") wird nicht erkannt. Aber mir ist es auch nicht eilig.

Auf ein Raw rauscht mehr als ein jpg, aber trotzdem kannst Du diesen Aspekt getrost vergessen, denn jeder belichtet unterschiedlich gut oder schlecht und das kannst Du bei fremdmaterial nie wissen.

Bei "Lowlight" ist es offenbar besser, etwas heller zu belichten als es das Auge sieht. Nicht, um es so zu lassen, sondern um es später wieder abzusenken. Um tiefe Schatten zu kriegen, obwohl man die tiefen Schatten gar nicht mit aufgenommen hat. Bei grellem Sonnenschein - den wir ja heute hatten - gilt definitiv das Gegenteil, weil man durchaus clippen kann. Dann gibt es noch "normal".

Ist ja alles nichts Neues. Gegenüber der A6500 ist es höchstens so, dass diese Bereiche jetzt weiter auseinander liegen. Bei der muss es bei Lowlight ganz klar heller sein als es das Auge sieht. Aber die Unterschiede sind quantitativ zu messen, sie sind relativ und inkrementell.

Eine absolut gleichmäßige Belichtung ist in SLog3 nur unter gleichen Lichtbedingungen oder unter Verzicht auf optimierte Dynamik möglich. Und im Kreativmodus "Standard" am besten durch "P" - Automatik. Gerald Undones Graukarte zur Belichtung werde ich gewiss nicht vor jeder Aufnahme vor die Linse halten.

Da wir gerade von Graukarte sprechen: ein benutzerdefinierter WeißabgleichWeißabgleich im Glossar erklärt ist in den Memory-Modi *nicht* möglich. Das ist bitter. Es zwingt einen dazu, sich vom Movie-Modus immer komplett durch alle Einstellungen zu zappen. Man kommt sich vor wie ein Flugzeugkapitän beim Check seiner Instrumente.

Hey, kluster, ich hab gerade ein sehr gutes Argument für Raw gefunden!



Antwort von anamorphic:

Hat einer der A7s III Besitzer schon mal geprüft ob bei Benutzung der Imaging Edge Mobile App als Vorschaumonitor eine Slog Aufnahme möglich ist?
Bisher war es ja bei allen Alpha Modellen so dass bei Aktivierung der App die Gammaeinstellung auf Rec709 zurücksprang.
Im Gimbal mit Autofokus reicht mir das Smartphone als kabelfreier, leichter Monitor.



Antwort von Axel:


Hat einer der A7s III Besitzer schon mal geprüft ob bei Benutzung der Imaging Edge Mobile App als Vorschaumonitor eine Slog Aufnahme möglich ist?
Bisher war es ja bei allen Alpha Modellen so dass bei Aktivierung der App die Gammaeinstellung auf Rec709 zurücksprang.
Im Gimbal mit Autofokus reicht mir das Smartphone als kabelfreier, leichter Monitor.

Die A7SIII war einmal über WiFi gekoppelt mit dem iPhone, und WiFi blieb aktiv. Nächstes Öffnen der "Remote" über die ImagingEdge App dauerte heute ca. 10 Sekunden, mit nur zwei Abfragen ("Verbinden?" Weiter. "Remote?" OK). Dann kam das so gut wie lagfreie Vorschaubild. Heute wollt' ich's wissen:
> keine gammakorrigierte Vorschau, d.h. das Bild ist ziemlich grau. Edit: aber in SLog!
> alle wesentlichen Funktionen steuerbar.
> Touchfokus funktioniert, aber es ist eine Einzel-Berührungs-Auswahl-Scharfstellungs-Programmierung, keine Fadenkreuz-erzeugende-und-beim-Loslassen-den-Tracker-triggernde-Scharfstellungs-Programmierung. Ich tipp auf das Motiv, ein weißer Punkt bestätigt die Berührung, und dahin wandert der Fokus. Dieser weiße Punkt hat einen Durchmesser von ca. 5mm auf dem Smartphone-Display. Das ist die Genauigkeit, die erreicht werden kann. Will man eine KanteKante im Glossar erklärt scharfstellen, muss man unmittelbar daneben tippen, sodass der Rand des weißen Punktes die KanteKante im Glossar erklärt berührt. Tippt man mittig auf die KanteKante im Glossar erklärt, weiß die Kamera offenbar nicht, ob Vorder- oder Hintergrund gemeint sind. Dann pumpt sie für eine Sekunde leicht, und keins von beidem wird scharf gestellt.

Insgesamt sehr brauchbar. Stabiler und verzögerungsärmer als der Zhiyun Transmitter (andere kenne ich halt nicht), und der Touchfokus ist auch - für's Erste - nicht schlecht gemacht.
zum Bild https://i.postimg.cc/L4jDmSV2/Imaging.jpg

Tip 1: vorm Start der App die "Ausrichtungssperre" des Smartphones einschalten. Also die Auto-Orientierung aus. Ihr wisst schon.
Tip 2: wenn man den EVF benutzt und den Monitor als MF/AF-Touch-Pad, ist es besser, in den Touch-Pad-Settings auf Seite 46/53 >Operation Area auf Right 1/2 zu setzen. Dadurch triggert man als Rechtsäuger nicht versehentlich das Tracking mit der Nase. Wie auch immer, für den Remote über Berührung des Smartphone-Displays muss diese Einstellung wieder auf Full Screen.



Antwort von Mediamind:

Neben der einstellbaren Geschwindigkeit bei Wechsel der Farbtemperatur im Modus Auto WB habe ich die 3 Speicherplätze für Custom Settings als hilfreich empfunden. Nicht weil es sie gibt (die Konkurrenz hat das auch im Portfolio), sondern die Kamera gibt die Farbtemperatur nach einer Spotmessung als konkreten Wert aus. Meine anderen Kameras verschweigen mir, welche Farbtemperatur sie auf der Graukarte sehen. Das macht beim Multicamshoot die Sache für mich einfacher. Gerade bei Mischlicht kann das eine nette Hilfe sein. Den Messwert übernehme ich dann für die anderen Kameras. Feine Sache.



Antwort von Axel:


Neben der einstellbaren Geschwindigkeit bei Wechsel der Farbtemperatur im Modus Auto WB habe ich die 3 Speicherplätze für Custom Settings als hilfreich empfunden. Nicht weil es sie gibt (die Konkurrenz hat das auch im Portfolio), sondern die Kamera gibt die Farbtemperatur nach einer Spotmessung als konkreten Wert aus. Meine anderen Kameras verschweigen mir, welche Farbtemperatur sie auf der Graukarte sehen. Das macht beim Multicamshoot die Sache für mich einfacher. Gerade bei Mischlicht kann das eine nette Hilfe sein. Den Messwert übernehme ich dann für die anderen Kameras. Feine Sache.

Wenn ich im Cam-Memory-Modus bin, steht mir Custom WB leider nicht zur Verfügung. Ich muss in den Movie-Modus wechseln. Dort wird mir zwar, wie du sagst, die momentane Farbtemperatur in Hunderterschritten angezeigt (aktuell 6100°K). Wenn ich aber wieder in 1,2 oder 3 bin, ist diese Speicherung weg, und ich müsste manuell über "K" gehen.

Warum bleibe ich also nicht gleich im Movie-Modus?

Nun ja, das tu ich auch. Es ist nur ein bisschen schade, weil es schon 20-30 Sekunden kostet, jedesmal nach dem Einschalten zu checken, ob alle Parameter passen.



Antwort von Mediamind:

Kann ich nachvollziehen. Ich wechsle eigentlich nur zwischen Moviemodus und S&Q. Dafür habe ich mir die FramerateFramerate im Glossar erklärt für den S&Q Modus in den Schnellzugriff über das einblendbare Menü gelegt. Mehr brauche ich derzeit nicht. Ich habe (noch) keine passende Verwendung für 1,2 und 3 gefunden.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7s I/II/III - Alpha 7 I/II/III - A7R I/II/III - RX10 - RX100-Forum

Antworten zu ähnlichen Fragen:
Sony kündigt weltweit erste CFexpress 2.0 Typ A Speicherkarte für Sony A7s III an
Sony a7R III - Sammelthread (Sony a7R III vs. II - Unboxing & erste Eindrücke)
Sony A7S iii - wann denn endlich??
Sony A7S III im Praxistest: Ergonomie, Bedienung, AF-System, Fazit ? Teil 2
Sony Alpha 7R IV im Anflug - werden heute Sony A7S III, A9 II und Alpha 7000 ebenfalls vorgestellt?
Die Sony A7S III hat keine Hitzeprobleme -- oder möglicherweise doch?
Nachtrag: Sony A7S III + Atomos Ninja V = 12bit ProRes RAW Aufzeichnung
Hochauflösendes 0,5-Zoll-OLED-Microdisplay als Sucher in der kommenden Sony A7S III?
Sony A7S III - Atomos Ninja V Update für ProRes RAW Aufzeichnung ist da
Sony A7S III Praxistest: Hauttöne, 10 Bit 4:2:2 LOG/LUT und stabilisierter Sensor - Teil 1
Wer hat die beste Video-Stabilisierung? Sony A7S III vs Canon EOS R5 vs Panasonic S1H
Sony a7s VS. a7s II: Welche ist besser für Video?
Erste Erfahrungen mit Pinnacle Studio 9
Sony A7s mit Sony ECMGZ1M Mikrofon via Multi-Interface-Shoe
Sony Alpha 9 MKII im Anflug - Ausblick auf Sony A7S MKIII Austattung?
Pinnacle *de*installieren? (war Erste Erfahrungen mit Pinnacle Studio 9)
Farbartefakte SONY A7S II
Amp Glow Sony A7s
Sony A7s auf 1FPS
Suche 4K Aufnahmemonitor für Sony a7s
Sony a7s II 4k intern full HD extern
Sony a7s signal zu 720p wandeln
Sony A7r ii und a7s BMVA 4k
Kleiner Sony A7s II Test, slog2
Sony A7s Tipps und Tricks
Sony A7 S III

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom