Logo Logo
/// 

Sony A7S III erste Erfahrungen, Bugs, Problemlösungen,...



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7s I/II/III - Alpha 7 I/II/III - A7R I/II/III - RX10 - RX100-Forum

Frage von Mediamind:


Ich mache diesen Beitrag einmal auf für all diejenigen, die ihre ersten Erfahrungen und ggf. auch Problemstellungen diskutieren möchten. Ich habe die Kamera dank Ferien nun seit 5 Tagen im Dauereinsatz und bin schwer begeistert. Jedoch gibt es ein paar Schwierigkeiten, die sicherlich bald per Update adressiert werden oder aber einfach nur an mir als nicht Sony-Nutzer liegen. An anderer Stelle habe ich beschrieben, dass die Zebras um ca. 20% daneben liegen viele zu spät ein Clipping anzeigen. Die HDMIHDMI im Glossar erklärt Ausgabe bekomme ich nur als Rawausgabe hin, Longgop geht bei mir nicht. Eine Sache ist mir noch aufgefalen: auf der FN Taste liegen ja verschiedene wichtige Funktionen. Ich habe eine Funktion rausgeworfen und statt dessen die S&Q Bildfrequenz hinterlegt. Im S&Q Modus ändern sich allerdings die hier eingestellten Framerates nicht, man muss umständlicher über das Menue die Vorgabe ändern. Geht leider auch nicht, wenn man dies auf z.B. C3 legt.



Antwort von Axel:

Mediamind hat geschrieben:
Ich mache diesen Beitrag einmal auf für all diejenigen, die ihre ersten Erfahrungen und ggf. auch Problemstellungen diskutieren möchten. Ich habe die Kamera dank Ferien nun seit 5 Tagen im Dauereinsatz und bin schwer begeistert. Jedoch gibt es ein paar Schwierigkeiten, die sicherlich bald per Update adressiert werden oder aber einfach nur an mir als nicht Sony-Nutzer liegen. An anderer Stelle habe ich beschrieben, dass die Zebras um ca. 20% daneben liegen viele zu spät ein Clipping anzeigen. Die HDMIHDMI im Glossar erklärt Ausgabe bekomme ich nur als Rawausgabe hin, Longgop geht bei mir nicht. Eine Sache ist mir noch aufgefalen: auf der FN Taste liegen ja verschiedene wichtige Funktionen. Ich habe eine Funktion rausgeworfen und statt dessen die S&Q Bildfrequenz hinterlegt. Im S&Q Modus ändern sich allerdings die hier eingestellten Framerates nicht, man muss umständlicher über das Menue die Vorgabe ändern. Geht leider auch nicht, wenn man dies auf z.B. C3 legt.
Ich habe den Verdacht, dass es sich um Missverständnisse handelt. Das mit dem Zebra kriegen wir hin, bei meiner gegenwärtig ihre Ablösung erwartenden A6500 ist es so, wie c-m-o-n im Nachbarthread geschrieben hat. Ich war der Meinung, dass SLog3 Clipping bei 100% bedeutet, aber vielleicht sind es 95, keine Erfahrung mit SLog3.

Ich glaube, du vertust dich mit S&Q erneut. Du verstellst über das Funktionsmenu die S&Q Aufnahmeframerate (z.B. 120), aber du musst trotzdem an der Kameraoberseite vom Filmstreifen (oder M1, M2, M3) auf "S&Q" drehen. Es ist halt auch die Frage, ob eine wirkliche Zeitlupe ohne Ton überhaupt einen Vorteil hat gegenüber einfach "120p" (Filmstreifen beibehalten, lässt sich z.B. auf M3c legen). Mit ersterem kannst du das unten getimete nicht machen, mit letzterem schon:
https://youtu.be/gqRH2RpAxVQ?t=369

Davon abgesehen ist es unfassbar, wie man ein solches Handbuch 🤬 verfassen kann. Kein Wunder, dass es zum Unboxing-Ritual gehört, diese achtlos über seine Schulter nach hinten zu schleudern. Dieses Mal ist es mal wieder so schlimm wie immer:
Belicht.StrdEinstlg = Damit wird der Standard für den korrekten Belichtungswert für jeden Messmodus eingestellt. > = Damit wird der Standard für den korrekten Belichtungswert für jeden Messmodus eingestellt.



Antwort von Mediamind:

Ich bin im S&Q Modus durch Drehen des Rades, klaro. Das ist mal kein Verständnisproblem :-)
Und genau hier funktioniert die Wahl der FramerateFramerate im Glossar erklärt nicht.








Antwort von Axel:

Hier im Forum haben mW nur zwei Leute schon die Kamera, du und rp television. Das Handbuch ist, wie gesagt, Makulatur. Wenn du den Verdacht haben solltest, ein Montagsmodell erwischt zu haben, geh besser jetzt zu dem Fachhändler, der sie dir verkauft hat. Aber das glaube ich nicht, viele Dinge (wie z.B. S&Q) waren bei Sony noch nie super intuitiv.
Eine deutsche Review von heute lobt sogar ausdrücklich die Zebra-Funktion. Auch ein bislang übersehenes Feature: Man kann zwei Zebras gleichzeitig anzeigen lassen, die Streifen laufen gegensätzlich diagonal. Eines davon dediziert für per KI erkannte Haut. Wie cool ist das denn?



Antwort von Mediamind:

Ich glaube nicht, dass es ein Montagsmodell ist und warte einmal ab. Ab dem 15. sollten laut Ankündigung weitere Auslieferungen kommen. Mal schauen, wer seine nun bekommt und ob andere auch Probleme mit den Zebras haben. Gestern war ich in der Kletterhalle und habe wirklich schönes Material von unserer Tochter und Freundin an der Kletterwand machen können. Die Zebras auf 75% entsprechen dann wie gesagt 95% in FCPX. Die beiden Sigmas (24-70 f:2.8 und 85 f:1.4) sind eine wirklich tolle Kombination. Ich glaube bei den nächsten Hochzeiten werde ich diese Kombi zu 90% verwenden. Das Arbeiten hiermit ist einfach super entspannt. Der active Stabilisierungsmodus arbeitet nicht auf dem Niveau meiner S1/Gh5 aber dafür natürlicher. Gerade bei 24 mm habe ich bei Panasonic S1 gerne einmal diesen deutlichen Schwingeffekt des Sensors an den Bildrändern, der das Bild schnell unbrauchbar machen kann.
Das Handbuch ist in der Tat schlecht. Einiges konnte ich zwar lösen, bei anderen Dingen hilft nur probieren. Ich habe z.B. redundante Aufnahme auf beiden Kartenslots eingestellt. Fehlt die 2. Karte, nimmt er nicht auf. Das kann man aber konfigurieren, dass er sich dann nicht weigert. Bei Panasonic blinkt einfach die 2. nicht vorhandene Karte rot und man nimmt trotzdem auf, bei Sony geht man erst einmal ins Menue. Heute habe ich das Museum Ludwig in Köln geplant, Samstag den Duisburger Innenhafen. So intensiv habe ich noch nie eine Kamera getestet.



Antwort von rush:

Danke fürs berichten und ausprobieren - davon können sicherlich einige potentielle Käufer positiv von profitieren.

Sony hat in der Tat häufig etwas doppelseitige Funktionen die manchmal merkwürdig zu erreichen sind - da bleibt zu hoffen das sie entsprechende Punkte auch adressieren und fixen - was ja leider nicht immer der Fall bei den "kleinen" Alphas gewesen ist und dann unter Umständen erst im Nachfolgemodell gefixt wurde.

Ich hatte noch keine in der Hand und keine keine in Bestellung - werde sie mir aber bei Gelegenheit auch gern mal irgendwo ansehen.



Antwort von Axel:

Schlechte Handbücher sind vierdimensionaler Schach. Gute würden die Youtube-Kameratutorials überflüssig machen, um deretwillen viele die Kamera kaufen.



Antwort von Mediamind:

Das Video habe ich mir auch gerade einmal im Überflug angeschaut. Die dort dargestellte Dual-Zebra-Anzeige kann ich bei mir nicht finden. Auch im Handbuch steht dazu nichts. Merkwürdig...



Antwort von Axel:

Mediamind hat geschrieben:
Das Video habe ich mir auch gerade einmal im Überflug angeschaut. Die dort dargestellte Dual-Zebra-Anzeige kann ich bei mir nicht finden. Auch im Handbuch steht dazu nichts. Merkwürdig...
Scheint ein "Osterei" zu sein. Vielleicht taucht das Zebra spontan auf, wenn man Ges b Multimess eingestellt hat (und der Bereich nicht durch >Zebra >Untergrenze >Strd+Bereich ausgegrenzt ist ...):

zum Bild


Ich will auf jeden Fall auch der AE eine Chance geben, wenn die schon so ausgefuchst ist.



Antwort von Mediamind:

Auf diesem Weg bekommt man keine weiteren Zebras. Das wäre für Gesichter nicht schlecht auch wenn ich Falsecolor für so etwas bevorzuge. Bezüglich der inkorrekten Zebras habe ich nun den Sony Support und den Händler parallel kontaktiert. Mit Zebras auf 75% stimmt die Anzeige des Clippingpoints recht genau. Wie beschrieben entsprechen die 75% an der A7SIII 95% am Ninja V und in FCPX.
Schade: man kann den Wechsel zu NTSCNTSC im Glossar erklärt nicht auf einem Funktionsbutton registrieren. Ich benötige fürs getting ready und andere Gelegenheiten bei Tageslicht die 30p für einen leichten Slowmoeffekt. Geht auch über das Mymenue, wäre mir aber mit einem FN-Button lieber. Noch besser wären variable Framerates :-)
Das ist aber meckern auf höchstem Niveau. Mein erster Eindruck zur Stabilisierung bestätigt sich fortlaufend. Sie ist nicht so festgenagelt wie bei der S1 oder Gh5, dafür sieht das aber authentischer aus und die Bildränder wobbeln bei weitwinkligeren Aufnahmen nicht so unschön.



Antwort von Axel:

Mediamind hat geschrieben:
Schade: man kann den Wechsel zu NTSCNTSC im Glossar erklärt nicht auf einem Funktionsbutton registrieren. Ich benötige fürs getting ready und andere Gelegenheiten bei Tageslicht die 30p für einen leichten Slowmoeffekt. Geht auch über das Mymenue, wäre mir aber mit einem FN-Button lieber. Noch besser wären variable Framerates :-)
Weil PALPAL im Glossar erklärt und NTSCNTSC im Glossar erklärt auf derselben Karte nebeneinander liegen dürfen (zum ersten Mal), *sollte* es klappen, NTSCNTSC im Glossar erklärt und 30 p auf (Moduswahlrad) 1,2 oder 3 (Memory) oder M1,M2,M3 (Memories auf Karte) zu legen. Schon probiert?



Antwort von Mediamind:

Hallo Axel, der Wechsel von PALPAL im Glossar erklärt zu NTSCNTSC im Glossar erklärt findet übergeordnet statt und wird nicht über die Profile für die 3 Speicherplätze gesteuert. Ich habe es gerade einmal ausprobiert. Stellt man NTSCNTSC im Glossar erklärt ein, gilt das für alle Optionen in der Kamera. Ist nicht sonderlich schlimm, bei anderen Sonys ist das ja scheinbar ein Problem mit der SD Karte, die man dann nicht mehr im gemischten Betrieb verwenden kann.








Antwort von Axel:

Hab sie heute gekriegt und die letzten vier Stunden damit rumgespielt. Trotz der vielen Tutorials, die ich gesehen habe, blicke ich vielleicht 20% durch. Der Autofokus ist ein sehr sauber kontinuierlicher, soviel steht schonmal fest: als ich mich langsam der Fensterscheibe mit den Regentropfen genähert habe, blieben die ohne zu pumpen permanent scharf. Aber wie schalte ich auf Unendlich? Draufpatschen nützt nix, da die Regentropfen überall auf der Scheibe sind. Naja, ich hab's geahnt, da gibt's noch viel zu lernen.
Sehr beeindruckend ist, worüber bisher höchstens am Rande jemand spricht, der AWB. Mit AWB Priority "Ambience" (im Gegensatz zu "White") und Shockless WB auf Stufe 2 ist Mischlicht anscheinend kein Problem, auch nicht, wenn man schwenkt.

Die nächste Woche widme ich SLog3, einstweilen dilettiere ich mit Standard. Witzig ist, dass die Kamera ootb auf "Movie" steht und dort auf den narrensichersten Automatikeinstellungen, wohl, um Frust zu vermeiden ...



Antwort von Mediamind:

Prima dass es geklappt hat, Axel. Da gibt es eine Menge auszuprobieren. Ich habe die Kamera auf den Tag nun aeit 2 Wochen und jeden Tag etwas mit ihr veranstaltet. Vorgestern hatte ich ein Brautshooting im Außenbereich. Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten. Auch bei f:1.4 sitzt der AF super. Ich habe mit die Hauttöne im Vektorscope genauer angeschaut. Sie liegen perfekt auf dem Skinetonevector.



Antwort von Mediamind:

Ich habe ein paar Tests zur Verwendung der Zebras gemacht. Die Zebras verhalten sich profilabhängig unterschiedlich. Da ich PP8 mit Slog3 s-Gamut3.cine verwende, habe ich getestet, ab wann das Clipping einsetzt. Die ist in FCPX beim Rohmaterial "gemessen" ca. bei IRE 87-88. Dies entspricht dann einem ander A7SIII eingestellten Zebra von 95%. Die für mich beste Einstellung des Zebras liegt bei C1 oder C2 auf 95% mit der Einstellung Strd+Bereich und +-2 als Bereichseinstellung. Bei FCPX existiert ein Lut für Slog3 s-Gamut3.cine. Dieser transformiert den Clippingbereich auf exakt 109 IRE. Das ist für REC709 nun nicht wirklich die beabsichtigte Zielhelligkeit von 100% Weiß. Mit dem von Sony herunter geladenen Slog3 s-Gamut3.cine Lut kommen die geclippten Bereiche wesentlich besser bei genau 99 IRE heraus. Geht man also mit der Zebraeinstellung wie oben beschrieben an den Start und bleibt ca. eine BlendeBlende im Glossar erklärt unterhalb des Clippings ist alles fein. Warum der Lut in FCPX auf die 109 IRE heraus will, wissen FCPX Profis wahrscheinlich besser als ich. Ich verwende nun nur noch den Sony Lut, bis Leeming einen eigens für die A7SIII angepassten anbietet.



Antwort von suchor:

Mediamind hat geschrieben:
Prima dass es geklappt hat, Axel. Da gibt es eine Menge auszuprobieren. Ich habe die Kamera auf den Tag nun aeit 2 Wochen und jeden Tag etwas mit ihr veranstaltet. Vorgestern hatte ich ein Brautshooting im Außenbereich. Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten. Auch bei f:1.4 sitzt der AF super. Ich habe mit die Hauttöne im Vektorscope genauer angeschaut. Sie liegen perfekt auf dem Skinetonevector.
Hast Du Fotòs od. Video gemacht?



Antwort von Mediamind:

Ausschließlich video.



Antwort von Axel:

Mediamind hat geschrieben:
Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten.
Ist das die neue Mirrorless-Version? Hätte mich auch sehr gereizt, aber das 85er 1.8 war das einzige Vollformat-Objektiv, was ich schon hatte, und es ist wirklich sehr okay.

Ich kaufte das Bundle mit dem 24er GM. Entsprach vom Bildkreis her dem Sigma 16mm bei APSC. Das testete ich mit Clear Image Zoom. Musste 1,2 x einzoomen, entspricht also jetzt etwa einem 19mm. Tja, was soll man sagen? Funktioniert. Ich bin mir nur nicht sicher, ob die Verzeichnung noch gescheit korrigiert wird, ich tippe auf nein. Schätze, ich verkauf Halbformat-Glas mit der A6500 zusammen, auch wenn's nicht mehr viel erbringt.

Will jemand unbedingt das Smallrig Cage? Hatte ich sofort gekauft, finde es aber total überflüssig. Für 20 € würd ich's verkaufen mit Paypal, Versand käm noch drauf (PN).

Weitere hastige Tests:
> Bluetooth-in-ear-Kopfhörer werden nicht erkannt (was ich schon gedacht hatte).
> Das Videobild über ImagingEdge und WiFi ist äußerst verzögerungsarm, jedenfalls wohl besser als >HDMI>WiFi-Transmitter ("RavenEye").
> Die großen Schluppen (á la Zacuto Eyepiece-Pümpel) passen prima über die original Suchermuschel. Ich weiß gar nicht mehr, woher ich meine momentane Mupfel habe, ich glaube, von der Billig-Sucherlupe von "Kamerar". Allerdings geht's wohl noch billiger: 7,39 € (es geht nur um das Gummi, die Lupe kann man glaube ich wegschmeißen).
Mediamind hat geschrieben:
Ich verwende nun nur noch den Sony Lut, bis Leeming einen eigens für die A7SIII angepassten anbietet.
Das werd ich mir nächste Woche in Ruhe ansehen.
suchor hat geschrieben:
Hast Du Fotòs od. Video gemacht?
Passend zum Thema Fotos: 12 MP reichen rechnerisch für einen Posterprint mit 150 dpi zwischen A3 und A2. Dazu braucht man keine A7R Dingenskirchen.


Aber ausgedruckt habe ich eh schon lange nichts mehr.



Antwort von MrMeeseeks:

Mir ist nicht ganz klar warum Sony der A7s III nicht einfach einen Pixelshift Modus verpasst hat. Andere viel billigere Kameras bieten das an und der IBIS der A7s gibt das sicherlich her.

Ein 48MP Bild mit solch riesigen Senseln hätte sicher was tolles.



Antwort von Mediamind:

Habe ich mich auch schon gefragt. Pixelshift könnte in der einen oder anderen Situation hilfreich sein. @Axel: Ja, es ist die neue DGDN Version. Meine Frau und Tochter haben mich zum Geburtstag hiermit beglückt. Das ist für mich die Traumkombination. Ich libe die Kompaktheit und das Freistellungspotential. Mit dem Sigma Art 24-70 bin ich eigentlich komplett ausgestattet. Zusätzlich habe ich nun seit ein paar Tagen das 70-200 f:4 von Sony. Das Objektiv ist im Vergleich zu dem was ich sonst so schleppe einfach nur kompakt. Schade, dass die Preise für die Umrüstung bei Sigma so hoch sind. Ich würde gerne mein 105er f:1.4 auf E-Mount umbauen lassen. An L-Mount ist das zwar super aber der AF macht mir zu schaffen. Wie nett wäre das mit der Sony :-)



Antwort von Axel:

Axel hat geschrieben:
Will jemand unbedingt das Smallrig Cage? Hatte ich sofort gekauft, finde es aber total überflüssig. Für 20 € würd ich's verkaufen mit Paypal, Versand käm noch drauf (PN).
Ihr werdet gleich sehen, was für Konsequenzen es hat, wenn man den Ebay-FAQ-Tip "Wie erziele ich das meiste Interesse für meinen Artikel?" aus wenigstem Interesse für solche Themen nicht gelesen hat:
https://youtu.be/yJJnsWAkY6Q?t=434

Genau das.

Meine eigenen Reviews würden immer das Haar in der Suppe finden, den Teufel im Detail. Das ist nicht, weil ich im Leben ein korinthenkackender Stinkstiefel bin, sondern weil ich Benutzerfreundlichkeit und durchdachtes Design besonders würdige.








Antwort von Mediamind:

Die Smallrigg Cages sind mal gut und mal verbaut. Für die S1 gab es einen, bei dem auch der Batteriegriff aufgenommen wurde. Für mich war das interessant, weil ich längere Takes von bis zu einer Stunde immer mal wieder aufnehmen muss. Hierbei passte die Kamera nicht vernünftig in den Cage, ohne das man die Gurthalterung abbaut. Vollkommen schwachsinning und unnötig.



Antwort von Axel:

Mediamind hat geschrieben:
Die Smallrigg Cages sind mal gut und mal verbaut.
Mein A6500 Cage (es gibt mehrere Smallrig-Versionen) macht die Kamera tatsächlich kompakter, besser zu halten, praktischer, eben: benutzerfreundlicher.

Das/den Cage für die A7SIII hatte ich vor allem wegen der Gimbal-Grundplatte bestellt. Mit nur einem Stativgewinde unter der Kamera kann diese auf einem Gimbal leicht verkannten (hierbei egal, ob es Weebill S oder Ronin SC ist):

zum Bild

Darum habe ich extra einen Gewindeadapter in die vordere, größere Bohrung eingesetzt, um die Platte mit zwei Stativschrauben befestigen zu können. Das geht jetzt zwar (EDIT: denke, ich werde stattdessen anfangen, die Objektivstütze des Gimbals zur Ausrichtung zu benutzen, aber der Grund, warum das problematisch ist, zeigt sich in dem Bild oben: bei vielen Objektiven würde die Stütze genau auf dem manuellen Fokusring liegen - der Teufel liegt im Detail! EDIT 2: Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben), aber es zerstört komplett und unwiderruflich eine andere Eigenschaft der A7SIII: dass sie gut in der Hand liegt (zumindest in meiner). Ich benutze Manfrotto/Arca-Swiss-Platten gerne als Griff-Hilfe, um die Kamera vor's Auge zu halten. Bei der Pocket durch Einziehen einer Nylon-Handschlaufe:

zum Bild


zum Bild

Jetzt durch Drumlegen eines Stücks Moosgummi (einer von zwei Billigst-Fahrradgriffen, halbiert und aufgeschnitten):

zum Bild

Hier halt ich's mit rechts, da ich mit der anderen Hand das Handy halte, aber es geht sehr gut beidhändig. Die Kamera ist der reinste Handschmeichler ...



Antwort von Mediamind:

Von einem Cage nehme ich bei der A7SIII erst einmal Abstand. Ich will sie maximal mobil und leicht haben. Mehr als ein TC Generator auf dem Blitzschuh werde ich nicht verwenden. Für schwerere Setups habe ich die Panas mit Cage und allem Gerödel incl. XLRXLR im Glossar erklärt Adapter.
Ich habe mir heute einmal die Farben näher angeschaut. Unter Verwendung des Colorcheckers von X-rite sind das die besten Vektoren, die ich an einer meiner Kameras gesehen habe. Die Vektoren sind ausgewogen und korrekt ausgerichtet, die Hauttöne haben scheinbar eine minimale Drift in Richtung YL. In der Praxis beim letzten Brautshooting waren sie aber exakt im erwarteten Bereich. Das Vectorscope wurde mit dem Sony Lut versehen. Ich meine, dass der Lut scheinbar den Green und Cyan Vektor minimal korrigiert. Das ganze schaut mit Lut so aus: Bildschirmfoto 2020-10-24 um 12.11.43.png



Antwort von Axel:

Wenn ich nur den Sucher aktiv haben will, kein Problem. Ich klapp einfach das Display weg. Wenn ich nur das Display aktiv sein soll: Seite 43/49 (beiger Koffer) "Select Finder/Monitor". Damit habe ich C1 belegt, für"s Erste. Ich dachte, damit toggle ich die Präferenz manuell. Und in der Tat, drücke ich C1, wechselt die Anzeige vom Display auf den Sucher und bei nochmaligem Drücken zurück. Aber "Auto" scheint nicht wegschaltbar zu sein. Szenario: ich möchte durch Berühren eines Motivs auf dem Display einen neuen Fokuspunkt setzen (nebenbei gesagt bin ich von dieser Funktion total begeistert). Da ich Rechtshänder bin, schattet meine Hand dabei offenbar immer den Sucher ab. Die Kamera glaubt, ich will den Sucher benutzen und schaltet um. Bevor ich den Bildschirm berührt habe, wird dieser oft schwarz. Das muss einfach ein triviales Missverständnis sein. Eine Idee?



Antwort von klusterdegenerierung:

Wow, ein farbiges Vektorskop, das könnte Resolve auch aufwerten.



Antwort von Axel:

Auch, wenn hier keiner mehr mitliest, ein Zwischenbericht mit der Bitte um Korrektur:

Betrifft benutzerdefinierte Knöpfe und Schnell-Menus (über "FN" bzw. "My Menu" - hier ist der erste Punkt. Ich belasse die Gerätesprache in Englisch, weil Online-Tutorials und Reviews überwiegend englisch sind und weil die deutschen Übersetzungen der Funktionen noch grausamer sind). Ist es sinnvoll, wie Philip Bloom es macht, zahlreiche My Menus anzulegen, die wie die Hauptmenus kategorisiert sind?
Die Sony-Menus sind deswegen schlecht, weil sie verwirrend sind. Zuviel ist drin, und die Wege dahin sind mit der neuen Menustruktur vergleichbar mit Explorer-Dateipfaden. Es sind immer mehrere Klicks oder Wischbewegungen notwendig, um zu Potte zu kommen. Glücklich ist, wer Sonys "Logik" auswendig gelernt hat, sonst verbirgt sich zu oft hinter einer Abzweigung der Zonk statt der gesuchten Funktion.

> Also mache ich ein Benutzer-Menu mit maximal zehn direkt zugänglichen Einstellmöglichkeiten. Also einen zweiten FN-Knopf. Ich bin mir noch nicht sicher, ob ich auch eine C-Taste damit belegen will, denn C-Tasten gibt es immer zu wenig. Ich nehme halt die Funktionen, die nicht direkt mit einem Knopfdruck verfügbar sein müssen ...

> wie vor allem der
"die Sony online-Hilfe"]AF/MF Control Hold :
Switches the focusing mode while the button is held down.
AF/MF-Steuer. halt. :
Der Fokussiermodus wird umgeschaltet, während die Taste gedrückt gehalten wird.
Ich habe diese Funktion auf den stets sehr gut erreichbaren roten Movie-Button gelegt (und den Aufnahmeknopf auf den traditionellen Auslöser, was nicht schlimm ist, weil auf Seite 39/49 in Zeile 5 der Nicht-Default "Different Set for Still/Mv" versteckt ist).

Wahrscheinlich winken einige gelangweilt ab, aber mit diesem Knopf gibt es einen kleinen Workaround für das, was slashCAM hier im Vergleich zur Canon bemängelte:
Gerne würden wir bei der A7S III eine ähnliche Implementierung wie bei Canon (R5/R6) sehen, wo während des AF-Facetrackings auch im Sucherbetrieb auf dem rückseitigen Touchdisplay der nächste (also noch nicht aktive) AF-Tracking-Punkt positioniert werden kann, der vom AF-System dann beim Loslassen des Touchdisplays fokussiert und getrackt wird* (eine sehr mächtige Kombination aus AF und manuellen Eingriffsmöglichkeiten). Die A7S III bietet zwar die bekannte Touch Panel/Pad Funktionen aber eine Neu-Positionierung des AF-Trackings im laufenden Face-Tracking-Betrieb scheint es nicht zu geben. Und zwar lässt sich im Sucherbetrieb der Fokuspunkt mit dem Joystick ("Multiselektor") verschieben. Am besten dafür geeignet ist aus mehreren Gründen das Fokusfeld "". Die Schärfeverlagerung ist permanent aktiv, es ist eine auf das Fokusfeld eingegrenzte Autofokus-Funktion. Das heißt, ich kann nicht vorab festlegen, worauf die Schärfe im nächsten Moment wandert. Das geht (bei mir) aber, wenn bzw. während ich die rote Taste gedrückt halte. Lasse ich die Taste los, erfolgt eine mehr oder weniger sanfte ÜberblendungÜberblendung im Glossar erklärt (ich lasse "" auf der mittleren Position, das sieht gut aus, und wenn's lahmer sein muss, mach ich's besser von Hand). Ein Drücken des Multiselektors bewirkt standardmäßig ein Zentrieren des Fokusfeldes, wodurch "" zu einem "Center Fix" wird.

Die Fokusfelder habe ich als Durchblätterfunktion auf die Objektivtaste gelegt. Es ist schön, dass man zu exotische Fokusfelder hier ausblenden kann ("").

*Tja, Tracking. Bitte korrigiert mich, aber so, wie ich's verstanden habe, unterscheidet sich das Berührungs-Fokussieren auf dem Monitor von dem auf dem "Pad" (Sucher) dadurch, dass es automatisch getrackt wird. Während das mit dem Joystick anvisierte Motiv nicht getrackt wird. Das ist schade. Aber vielleicht habe ich etwas übersehen. Bitte aufgreifen!

Der manuelle Fokus ist im Sucher übrigens ein Kinderspiel. Wegen der phantastischen Auflösung reicht das dezenteste PeakingPeaking im Glossar erklärt, um völlig sicher die Schärfe einzustellen. Einziger Nachteil ist, dass bei den für AF optimalen Objektiven die Fokuswege ziemlich kurz sind.

Zu den Codecs:
Ich schrie nicht seit Jahren, dass 100 Mbit für UHD zu wenig seien, um jetzt 100 oder gar 50 oder gar 30 in 10-bit zu benutzen, nur, weil's geht und weil ich die nächste CPU-Aufrüstungsrunde unterstütze. Deswegen hab ich HEVC erst gar nicht probiert, sondern nehme gleich das maximal schnittfreundliche All-I, auch, wenn Max Yuryev das für Speicherkartenverschwendung hält. Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen:


Zu SLog3 und dessen Belichtung:
Für mich ist das Platzieren einer Graukarte, wie Gerald Undone es empfiehlt, keine Option. Ich finde aber meine ersten Test total ermutigend, weil es prinzipiell nicht anders ist als mit SLog2 bei der A6500. So mach ich's jetzt noch (weil ich SLog3 intuitiv-visuell noch nicht völlig einschätzen kann, was ich bis Ende der Woche zu können beabsichtige):
> PP8, einzige Änderung: Detail - 2
> Shooting Mode " "
> Belichtungskorrektur (am "Hardware"-Rad) "+1,7" (Nun werdet ihr sagen, was nützt diese Exp-Comnp., wenn eh alles manuell ist? Nun, es ist nicht alles manuell, denn ich habe ...)
> Auto ISO
> Zebra 90 +/- 2

Aufgrund dessen wird mir an der Unterseite von Monitor/Sucher angezeigt, wie weit ich die Exp.-Comp. erreiche. Die Base-ISO von 640 blinkt, wenn sie verlassen werden muss, und die Skala zeigt mir an, ob ich drüber oder drunter bin.

Das führt zu 100% benutzbaren Bildern, die aber nicht gleichmäßig belichtet sind. Das wird erfahrungsgemäß mit Schulung des Augenmaßes immer besser.

Am Sonntag hatte ich Brandon Lis Standard probiert (obwohl es in diesem Kreativstil keine Minuswerte für Schärfe gibt ...)

zum Bild

... und zwar mit , und .

Fand ich ehrlich gesagt nicht so toll. Bis auf, wie erwähnt, AWB. Interessant ist, dass die Kamera (im Gegensatz z.B. zur A6500) bei automatischer VerschlusszeitVerschlusszeit im Glossar erklärt die 180°-Regel erst bricht, wenn BlendeBlende im Glossar erklärt und ISO zu extrem werden.
[quote=Axel hat geschrieben:

Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben.
zum Bild

Eine QR-Grundplatte von, weiß ich nicht mehr, Kaiser oder Cullman. In dem Loch für den Positionierungsstift (wenn das so heißt) ist ein Stativgewinde.



Antwort von Mantas:

Axel hat geschrieben:

....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...
scheint eher ein Premiere Problem zu sein.



Antwort von Axel:

Mantas hat geschrieben:
Axel hat geschrieben:

....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...
scheint eher ein Premiere Problem zu sein.
Mag in diesem Fall so sein.

Nichtsdestotrotz wird beklagt, dass die Sony A7SIII ein Problem mit hässlich geglättetem Rauschen hat. Das ist so. Wie wahrscheinlich ist es, dass sich solche Klumpen durch temporale KompressionKompression im Glossar erklärt verbessern? Irgendwo muss der CodecCodec im Glossar erklärt ja ansetzen, um den Effizienzunterschied hinzukriegen. Ich finde 10 Mbps pro B/s (25 fps sind 250 Mbps) immer noch bescheiden und verstehe absolut nicht, warum für Leute, die sich ohne Not einen .000 MacPro kaufen, ein Euro fünfzehn pro Minute Video ein quersitzender Furz sind.

Ach, warte mal: die .000-Maschine will natürlich gefordert werden!

EDIT: Aber selbst die Edel-Käsereibe macht die Grätsche bei HEVC 10-bit 422. Ist einfach kein Standard. In PALPAL im Glossar erklärt ohnehin nur verfügbar in 50 fps und 45 Mbps. Also empfiehlt der Max, 4:2:04:2:0 im Glossar erklärt zu verwenden, um der Schnittfreundlichkeit willen.



Antwort von cantsin:

Axel hat geschrieben:
EDIT: Aber selbst die Edel-Käsereibe macht die Grätsche bei HEVC 10-bit 422. Ist einfach kein Standard. In PALPAL im Glossar erklärt ohnehin nur verfügbar in 50 fps und 45 Mbps. Also empfiehlt der Max, 4:2:04:2:0 im Glossar erklärt zu verwenden, um der Schnittfreundlichkeit willen.
Das ist dann aber echt ein Apple- (bzw. AMD GPU-) Problem. Bei der Kombination Resolve + Nvidia 1080Ti läuft das 4:2:2-Material der Kamera butterweich.








Antwort von MrMeeseeks:

Mantas hat geschrieben:
Axel hat geschrieben:

....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...
scheint eher ein Premiere Problem zu sein.
Er schreibt sogar selber als Ergänzung unter seinem Video folgenden Kommentar

"Update: when I open the file with the windows "movie & tv" application that blurry line is gone. This seems to prove that the camera is not the problem. I tested the file on another computer I have in Premiere and it created the same line. Maybe this is something Adobe can fix? I wonder why it's messing up for me but not other people in Premiere. I'll keep looking into this and will come back when I have more answers."

Und dennoch löscht er das Video nicht oder ändert zumindest den Titel. Noch immer heißt es.

"Something is wrong with my Sony A7S III"

Diese ganzen Clickbait Penner sind echt nicht zu ertragen.



Antwort von Axel:

MrMeeseeks hat geschrieben:
Diese ganzen Clickbait Penner sind echt nicht zu ertragen.
Er hätte ein " - solved!" in den Titel setzen können, das stimmt schon. Ansonsten ist der Typ voll okay, immer wieder kontroverse Foto-Themen, die nicht *nur* Clickbait sind.



Antwort von Axel:

Axel hat geschrieben:
"slashCAM"]Gerne würden wir bei der A7S III eine ähnliche Implementierung wie bei Canon (R5/R6) sehen, wo während des AF-Facetrackings auch im Sucherbetrieb auf dem rückseitigen Touchdisplay der nächste (also noch nicht aktive) AF-Tracking-Punkt positioniert werden kann, der vom AF-System dann beim Loslassen des Touchdisplays fokussiert und getrackt wird* (eine sehr mächtige Kombination aus AF und manuellen Eingriffsmöglichkeiten). Die A7S III bietet zwar die bekannte Touch Panel/Pad Funktionen aber eine Neu-Positionierung des AF-Trackings im laufenden Face-Tracking-Betrieb scheint es nicht zu geben.
*Tja, Tracking. Bitte korrigiert mich, aber so, wie ich's verstanden habe, unterscheidet sich das Berührungs-Fokussieren auf dem Monitor von dem auf dem "Pad" (Sucher) dadurch, dass es automatisch getrackt wird. Während das mit dem Joystick anvisierte Motiv nicht getrackt wird. Das ist schade. Aber vielleicht habe ich etwas übersehen.
Meine Nasenspitze wies mir unversehens den Weg. Ich hatte den Monitor nicht nach hinten geklappt (ist eh ein Schutzglas davor), als ich durch den Sucher sah. Plötzlich tauchte ein orangefarbenes Kreuz im Bild auf, das eine Sekunde später durch einen wild zappelnden Trackingrahmen ersetzt wurde, der meine Sprudelflasche trackte.

Ich probierte es aus. Beim Blicken durch den Sucher (und mithin bei nicht leuchtendem Monitor, es ist ja eine Entweder-Oder-Funktion) erzeugt das Berühren des Monitors (und das Belassen der Nase resp. Fingerspitze an dieser Stelle) das Erscheinen eines orangen Fadenkreuzes im Sucher. Dieses Kreuz lässt sich (ohne Loszulassen, wohlgemerkt) frei verschieben, egal, welches Fokusfeld gerade aktiv (und noch gültig) ist. Das Loslassen des Monitors aktiviert ein Fokustracking des zuletzt vom Fadenkreuz bedeckten Motivs.

Eine erneute Berührung des Monitors erzeugt - bei noch laufendem Tracking - ein zweites Fadenkreuz. Erst, wenn man dieses wiederum loslässt, überblendet die Schärfe zum neuen Motiv. Abgebrochen wird das Ganze durch Drücken des Joysticks (der Default: "". Der Abbruch ist allerdings nicht sehr elegant, es sei denn, man hat vorher bedacht, dass dieselbe Taste gleichzeitig das Fokusfeld zentriert (solange man's nicht umprogrammiert).

Die deutsche Hilfe erwähnt, dass es besser ist, die Berührungsfunktion zu sperren, damit man nicht beim Blicken durch den Sucher versehentlich mit der Nase einen neuen Fokuspunkt aktiviert (wie es mir passiert ist). Nur die englische Version formuliert es verständlich:
When shooting with the monitor, touch the subject to focus.
When shooting with the viewfinder, you can move the position of the focus by touching and dragging on the monitor while looking through the viewfinder. Es geht also.

In >Menu >44/51 >Touchpad-Settings führt Touch Postion Mode: Absolute Position dazu, dass das neue Fadenkreuz an der (nicht besonders präzise zu treffenden) Stelle erscheint, an der der Finger den schwarzen Monitor berührt. Relative Position lässt das Kreuz immer dort erscheinen, wo gerade getrackt wird. Ich empfehle dieses, weil es intuitiver ist.
[quote=Axel hat geschrieben:

Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben.
zum Bild
Axel hat geschrieben:
Eine QR-Grundplatte von, weiß ich nicht mehr, Kaiser oder Cullman. In dem Loch für den Positionierungsstift (wenn das so heißt) ist ein Stativgewinde.
Das funktionierte nur zufällig mit dem 35mm f1.8, das etwas schlanker ist. Das fette 85mm passt nicht drauf. Ich muss die Platte in der Mitte durchsägen ...



Antwort von Mediamind:

Ich habe meine ersten Versuche mit Raw gemacht. Einen vernünftigen Workflow, um damit vergleichbar gutes Material zu machgen wie in SLOG 3 sehe ich in FCPX noch nicht. Mal schauen, ob hier auf Slashcam etwas hierzu erscheint, die Redakteure sind über das Thema auch gestolpert. Die dunklen Partien rauschen kräftig mit Raw. Diese Mamutfiles mag ich mir nicht mit einem Denoiser antun.



Antwort von Axel:

@mediamind
Du wirst ja bezüglich PRAW und des FCPX-Workflows (während des Lockdowns wird es wohl FCPXI. Wie spricht man das? Elf? Eleven? eggs-eye? Wie der Diktator von China?) von allen Hunden gehetzt sein und weißt bereits,
>dass man idealerweise eine LUT benutzt, um PRAW zu normalisieren. Es muss keine SLog3-LUT sein, es muss noch nicht einmal eine Sony-LUT sein.
>dass man sich den Zinnober hätte gut sparen können, wenn die Metadaten verfügbar wären (aber Sony hat das nicht für nötig gefunden).
>dass es falsch ist zu sagen, PRAW rauscht mehr als Dingenskirchen oder zum Beispiel SLog3.
>dass die Sony A7SIII-Bord-Codecs XA-xxx nolens volens eine Rausch-Glättung anwenden, die total unattraktiv ist.
>dass man selbst bei der Canon EOS R5 quasi vom noise floor essen kann im Direktvergleich.
>dass Philip Bloom eine Woche lang Tag und Nacht ohne Schlaf damit verbracht hat, PRAW in FCP mit Neat-Video vom extremen Rauschen zu befreien.
>dass dieses Rauschen dennoch dem verknasten Lowlight-Zeug von den Karten ästhetisch vorzuziehen war.
>dass es deswegen strittig ist, ob man die A7SIII als Lowlight-Kamera bezeichnen darf. Oder vielmehr,
>dass es sehr wohl eine Ultra-Lowlight-Kamera für billig aussehendes Video ist, aber nicht gleichzeitig eine "cinema camera".
>dass man den Rauschgrund nicht mit aufnehmen soll und deshalb tendenziell überbelichten.
>dass der ideale Überbelichtungswert für SLog3 (und damit auch für PRAW!) 1 2?3 Blenden (sprich: "+1,7") ist für eher dunkle Aufnahmen.
>dass man sich mit dieser Überbelichtung bei sehr hellen Aufnahmen in's Clipping begibt und
>dass man deswegen in Highkey-Situationen nach Herzenslust unterbelichten darf (zum Schützen der Highlights), aber
>dass die Dynamik, hat man erstmal eine gute SNR sichergestellt, sehr gut ist und
>dass die Kamera nach "oben" hin eine Menge verzeiht, so-
>dass ETTR mit Zebras einen satten HeadroomHeadroom im Glossar erklärt haben kann.

Für mich würde sich die Frage PRAW oder nicht gar nicht stellen, wenn es intern wäre. Aber wenn ich ein ehrfurchtgebietendes Rig hätte bauen wollen, wäre es wohl besser die BMP6k gewesen. Neuerdings dank Lidar mit rudimentärem Autofokus (den man aber mit Geld und zusätzlichem Rig-Gedöns und Gewicht bezahlt). Hier ist einer mit Fischertechnik-Faszination unterwegs:

Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera". Der momentane Stand der Dinge, was Support für PRAW betrifft, zwänge mich zu SLog3 in 16-bit (nix dagegen), aber auch zum Kaufen und Mitschleppen des Ninjas. Der Kompaktfaktor ist damit futsch.



Antwort von Funless:

Axel hat geschrieben:
Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera".
Wie definierst du denn für dich persönlich "cinema camera" wenn ich fragen darf.



Antwort von Axel:

Funless hat geschrieben:
Axel hat geschrieben:
Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera".
Wie definierst du denn für dich persönlich "cinema camera" wenn ich fragen darf.
Ich mag schöne Bilder. Ich bin mir aber bewusst, dass daran die jeweilige Kamera nur zu etwa 5% einen Anteil hat (Zahl aus der Luft gegriffen). Aus irgendeinem Tutorial habe ich diesen Screenshot gemacht:

zum Bild

... und ihn "Filmkunst" genannt. Weil ich mal eine tolle Buchreihe hatte, die "Filmkünste" hieß, und von denen jedes Buch den oben gezeigten Beiträgern gewidmet war.

Meine ganz persönliche cinema camera ist die, die mir erlaubt, mich auch auf diese anderen Aspekte zu konzentrieren. Interessanterweise kommt die Kamera nur mit "Bildrate" zu Würden, das ließe sich natürlich noch weiter aufschlüsseln. Aber die Slomo-Funktionen sind mir schon wichtig.

Wie es in einer heute hochgeladenen Review von F-Stoppers heißt: kein noch so erfahrener Focuspuller kann so zuverlässig fokussieren wie die A7SIII. Der Touchfokus ist nach Sonys eigener Ansicht eher eine andere Version des manuellen Fokus: ? Berühren Sie das Motiv, auf das Sie fokussieren wollen, vor oder während der Aufnahme.
• Wenn Sie das Motiv berühren, wird der Fokussiermodus
vorübergehend auf Manuellfokus umgeschaltet ... lediglich das Tracking und die Präferenz für Gesichter und später für Augen sind Automatik-Funktionen.

Es ist keine Lowlight-Kamera, aber eine Kamera, die den Aspekt Beleuchtung stark vereinfacht, insofern, dass man mit existierendem Licht viel weiter kommt als mit anderen Kameras. Man darf nur nicht per Kamera heller machen wollen.

Ich will mich um weniger kümmern müssen und trotzdem technisch annehmbare und ästhetisch nicht abstoßende Aufnahmen bekommen. Obligatorischer Kubrick-Spruch: "Ein Bild ist eine Aufnahme (recording) eines Bildes."
Das Bild existiert vor der Kamera. Weiterer Kubrick-Spruch: "Wenn etwas interessant ist, ist es fast egal, wie es gefilmt wurde."



Antwort von pillepalle:

Vielleicht muss man sich auch einfach mal von dem Gedanken lösen das 'die Kamera' das 'Kinobild' macht. Unterbewusst weiß das vermutlich auch jeder, aber trotzdem glaubt man oft mit der neueren/besseren Kamera auch automatisch bessere Filme machen zu können. Das stimmt eben nur sehr bedingt.

VG



Antwort von klusterdegenerierung:

Axel hat geschrieben:
Der Kompaktfaktor ist damit futsch.
Naja, jetzt übertreibst Du aber ein bisschen.








Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Der Kompaktfaktor ist damit futsch.
Naja, jetzt übertreibst Du aber ein bisschen.
Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.

Und was bringt das Rig überhaupt? Ich kann mit der Kamera alleine und Steady Shot jede noch so statische Stativaufnahme simulieren, und beweglicher bin ich auch. Meine eigenen Arme sind das Rig, gern unterschätzt. Active Steady Shot mag nicht reichen, um Schritte auszugleichen, aber ich kann damit jeden Verfolgerschwenk aus der Hand (besser: aus dem Oberkörper) machen.

Das zum Beispiel war das Problem mit der A6500. Aus der Hand sehr schwierig. IBIS zu schlecht, und Rolling ShutterShutter im Glossar erklärt das Alleinstellungsmerkmal. Aber auch da bastelte ich kein (richtiges) Rig, denn:

Auf einem Einbeinstativ und natürlich auf einem Gimbal ist fast alles möglich.



Antwort von pillepalle:

Axel hat geschrieben:

Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.
Natürlich wirkt das offizieller. Aber wenn man einen Job macht ist das ja auch nicht schlimm. Ich möchte doch niemanden 'heimlich' oder gegen seinen Willen filmen? Ich weiß jetzt auch nicht welches Rig Du konkret meinst, aber so viel schwerer zu handeln ist das dann eigentlich nicht. Hat sogar ein paar Vorteile. Der Nachteil ist eben die längere Setup-Zeit. Klar, wenn ich nur den Body mit Optik aus der Tasche ziehe, bin ich schneller als wenn ich erst noch an der Kamera herum riggen muss. Bei mir ist die Lösung dafür einfach eine größere Tasche (Rollkoffer). Da kann man dann auch praktisch die fertig geriggte Kamera transportieren. Aber ich verstehe schon das vielen diese 'Kompaktheit' wichtig ist.

VG



Antwort von Axel:

pillepalle hat geschrieben:
Ich weiß jetzt auch nicht welches Rig Du konkret meinst, aber so viel schwerer zu handeln ist das dann eigentlich nicht.

zum Bild

Nun, es ist ~1,5 x so schwer wie Kamera plus Objektiv, nämlich 1581g (vorausgesetzt, man benutzt für den Ninja NPF750, was wohl die typische Größe dafür ist). Den Magic Arm und sowas habe ich schon weggelassen. Was ich auch gar nicht verstehe ist, warum man einen Immerdrauf-Zoom anstatt zwei oder drei Primes nimmt. Tut sich von Preis/Qualität her nicht viel, sogar eher umgekehrt: selbst billigere Primes sind oft deutlich besser als der ZoomZoom im Glossar erklärt es bei ihrer jeweiligen BrennweiteBrennweite im Glossar erklärt ist. Vor allem sind sie leichter.

Ist für mich so ein bisschen wie die Wahl zwischen Fiesta und Hummer, um, sagen wir mal, von A nach B zu kommen.



Antwort von Funless:

pillepalle hat geschrieben:
Axel hat geschrieben:

Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.
Natürlich wirkt das offizieller. Aber wenn man einen Job macht ist das ja auch nicht schlimm. Ich möchte doch niemanden 'heimlich' oder gegen seinen Willen filmen?
Wenn ich ältere posts von Axel richtig in Erinnerung habe, dann filmt er mittlerweile keine Jobs mehr und daraus resultierend ist all das was er mit seiner A7SIII filmt privater Natur (Bitte korrigiere mich Axel, falls ich mich täusche). Jedenfalls wenn du private Aufnahmen (insbesondere im öffentlichen Raum) machst, dann ist jegliches Zusatzgeraffel an der Kamera äußerst aufällig, da recht schon ein Mikro auf der Kamera um unangenehme Reaktionen von irgendwelchen Leuten hervorzurufen. Ist halt leider so.



Antwort von klusterdegenerierung:

Axel hat geschrieben:
klusterdegenerierung hat geschrieben:

Naja, jetzt übertreibst Du aber ein bisschen.
Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.

Und was bringt das Rig überhaupt? Ich kann mit der Kamera alleine und Steady Shot jede noch so statische Stativaufnahme simulieren, und beweglicher bin ich auch. Meine eigenen Arme sind das Rig, gern unterschätzt. Active Steady Shot mag nicht reichen, um Schritte auszugleichen, aber ich kann damit jeden Verfolgerschwenk aus der Hand (besser: aus dem Oberkörper) machen.

Das zum Beispiel war das Problem mit der A6500. Aus der Hand sehr schwierig. IBIS zu schlecht, und Rolling ShutterShutter im Glossar erklärt das Alleinstellungsmerkmal. Aber auch da bastelte ich kein (richtiges) Rig, denn:

Auf einem Einbeinstativ und natürlich auf einem Gimbal ist fast alles möglich.
Und was spricht dann gegen eine Kamera mit Objektiv?



Antwort von pillepalle:

@ Funless

Stimmt schon, aber so gesehen darfst Du dann noch nicht mal ein vernünftiges Stativ benutzen. Damit ist man ja dann schon quasi der Vollprofi :)

VG



Antwort von Axel:

@Funless
Als Hochzeitsfilmer ("Job" ist übertrieben) war ich eine Ein-Mann-Band. Da schleppte ich auch absolut nichts Überflüssiges mit. Wenn ich (wie mein bester Kumpel) Profi wäre, würde ich unter einer FS7/FX9 nichts an den Start bringen. Aus Gründen der dicken Hose einerseits, andererseits, weil ich mindestens einen Assi hätte, i.d.R. mehr. DV Rebel, Rungunshooter (Brandon Lis früherer Avatar), das sind so die Bezeichnungen, die mir sympathisch sind.

Ich finde das o.e. Rig "schön", aber aus kindlicher Freude an sinnbefreiter Haptik, aus Spieltrieb. Ursprünglicher Berufswunsch war Lokführer - wir wohnen an einem Bahndamm hinter einem Stellwerk, und es lag eine Menge schwerer Metallschrott rum. Die mechanische Filmtechnik war auch so ein Faszinosum, monströse Metallmaschinen spuckten filigrane Licht-Schatten-Spiele aus. Industriebracken sind für mich pittoresker als verfallene Dracula-Schlösser.

Was hat das alles mit "kompakt" zu tun?

Ist für mich die einzige Erklärung für solche Rigs, da die Kamera (bis auf Raw) alles intern - und besser! - macht, was diese teuren Helferlein machen sollen.



Antwort von klusterdegenerierung:

Axel hat geschrieben:
Was hat das alles mit "kompakt" zu tun?
Wie gesagt, was spricht gegen die Cam mit Objektiv?
Für quasi Hobby braucht man auch kein Raw, einen kleinen Tod muß man eben sterben.



Antwort von pillepalle:

@ Axel

Vollkommen richtig. Meine Kamera kann das allerdings nicht intern und selbst wenn sie es intern könnte, ist mir ein halbwegs vernünftiges Monitoring vor Ort schon wichtig. Einfach damit ich genau beurteilen kann was ich mache. Hab' sogar in irgendeinem Video gesehen, das das Display der Sony noch kleiner ist als das der Z6. Für mich wäre das nix, außer vielleicht am Gimbal, oder an einer Drohne. Aber sind eben auch andere Anwendungen. Von da her kann ich Dich gut verstehen.

VG








Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Was hat das alles mit "kompakt" zu tun?
Wie gesagt, was spricht gegen die Cam mit Objektiv?
Nichts, aber das sag ich doch.
pillepalle hat geschrieben:
@ Axel

Vollkommen richtig. Meine Kamera kann das allerdings nicht intern und selbst wenn sie es intern könnte, ist mir ein halbwegs vernünftiges Monitoring vor Ort schon wichtig. Einfach damit ich genau beurteilen kann was ich mache. Hab' sogar in irgendeinem Video gesehen, das das Display der Sony noch kleiner ist als das der Z6. Für mich wäre das nix, außer vielleicht am Gimbal, oder an einer Drohne. Aber sind eben auch andere Anwendungen. Von da her kann ich Dich gut verstehen.
Als Kronzeuge gegen die Rigger der Tafelrunde wäre ich eine Fehlbesetzung. Beweis: Schrauben- und Scharniere-Sammelzwang. Allerdings besaß ich schon drei, nein, sogar vier externe Monitörchen (smallHD Focus gerade verschenkt). Keines davon hatte ich je bei einer Hochzeit dabei. Ballast. Dienten nur zum Testen ihrer selbst. Das ist kein verächtlicher Daseinsgrund für so einen Bildschirm, denn Testen, mit Technik rumspielen, zaubert so manchem ein Lächeln ins Gesicht und flutet die Welt mit Harmonie-Pheromonen. Demgegenüber ist das fahrige Draufgucken bei einem "Dreh" zur Kontrolle von Bildausschnitt und Schärfe profan. Konzentration auf das Visuelle fördern die Dinger sowieso nicht.

Ja, das Klappdisplay der A7SIII ist ziemlich klein. Fällt unter die Kategorie "erstaunlich gut". Dann und wann kommt einem ein gutes Display zupass. Aber ich bevorzuge Sucher. Der gute Sucher war wahrscheinlich das Zünglein an der Waage für die Kaufentscheidung. Damit kann ich "genau beurteilen kann was ich mache." Display ist tatsächlich nur zur Bildausschnitt-Kontrolle, wenn der EVF nicht zugänglich ist. Aber das ist er - ich hab's schon mal beschrieben - sogar auf einem Gimbal.



Antwort von pillepalle:

@ Axel

Ja, wie gesagt - Hochzeitsfilme sind eine andere Baustelle. Bei mir geht's aber eben oft auch um weniger 'profane' Dinge, um mal Deine Ausdrucksweise zu verwenden (für Kadrage oder Fokus). Da ist das Beurteilen von den Details (Licht, Überschneidungen, ect) auch wichtig. Und abgesehen davon, möchte ein Kunde oder AD auch lieber ein noch besseres Monitoring. Überlege schon fast mir zusätzlich noch einen 7" Monitor mit billig Funkstrecke zu besorgen, um nicht immer deren kalten Atem im Nacken zu spüren 😅

Bei Hochzeiten hat man als Filmer ja weitestgehend seine Ruhe.

VG



Antwort von klusterdegenerierung:

Was ich auch empfehlen kann ist, eine kleine Handyhalterung oben auf dem Hotschuh des Manitoes und ein Handy drüp.
Das funzt erstaunlich gut und mit der neuen Camoodoo app ist das echt nice und das delay kaum der Rede wert.

Aber natürlich mit schwenkgelenk, dann kann man das handy richtig flach übers Objektiv klappen und ist kaum sichtbar und aus der Hüfte der Hit.
Hab ich auch schon so genutzt und ist der neue heiße scheiß. :-)



Antwort von Mediamind:

Zum Thema Dual-Zebras: Das war eine Fehlinformation. Der YTer hat das revidiert. So gut die Idee ist, bei der A7s III ist dies nicht implementiert.
Zum Thema Cage: Der Vorteil der Kamera liegt in der Hand (wörtlich). Kompakt, leicht, schnell im Einsatz...Ein Cage verbessert die Handhabung nicht. Bei der S1 oder eine GH5 mit XLR-Adapter, Timecodegenerator, NTG3 und ggf. dem Ninja sieht das anders aus. Die habe ich vor dem Dreh konfiguriert und dann ab auf das Stativ. Das ist nichts, was ich durch die Gegend schleppen mag. Auch bei einem minimalistischen Rigg sehe ich keine Vorteile (für mich).
Selbst mit dem f4er 70-200 von Sony ist die A7S III super handlich. Das kenne ich von der S1 in selber Ausstattung anders....



Antwort von Axel:

Tilta (die mit dem Kühlaggregat für die Canon R5, die aber softwaremäßig auf Selbstverbrennung programmiert ist) haben ein fetziges A7SIII-Cage-Video hochgeladen, das das Kind im Manne kitzelt. Passend zum martialischen Geschraube habe ich kürzlich auch einen Camouflage-Skin gesehen:




Antwort von Mediamind:

Das ist kein Cage sondern ein außerirdischer Transformer. Gute Tarnung :-)
Ich denke der Preistag für den Cage liegt dann bei recht vernünftigen 4199€.



Antwort von Mediamind:

Zu Catalyst Browse: Es geht auch mit Sigma Art Linsen. Ich habe mit dem 85er 1.4er und dem 24-79 f:2.8 aus der Hand gefilmt und die arme Ehefrau gestalkt. Das unbehandelte Material ist total verwackelt, das "gyroscopierte" ist stabil. Und ich habe richtig bei der Aufnahme gewackelt...
Ich habe mit 1/50 aufgenommen, Brandon L. hatte ja darauf hingewiesen, dass ein kurzer ShutterShutter im Glossar erklärt erforderlich ist. Das Ergebnis ist mit 1/50 super stabil, wenn dann aber zuviel Bewegung zu kompensieren ist, schlägt die BEwegungsunschärfe zu und für kurze Augenblicke ist das Bild unscharf. War ja auch so zu erwarten.



Antwort von Axel:

Brandon Li sagt in seinen Ronin S/SC 2 -Reviews, dass man mit Gimbal verwacklungsarm genug ist, um Gyro auch mit proportionalem ShutterShutter im Glossar erklärt zu verwenden (Timestamp):
https://www.youtube.com/watch?v=FrsWAqTia0A&t=502s

Auch hier sieht man wieder das Smartphone als externen Monitor. Wie bereits erwähnt, man kann sich das "Pro"-Paket sparen mit der A7SIII (ich spar mir den ganzen Gimbal, bin eher ein Zhiyun-Typ). Sowohl, was den neuen AF mit Lidar als auch, was die WiFi-Übertragung mit Raven-Eye betrifft, denn die Latenz mit dem kostenlosen ImagingEdge ist wirklich minimal ...



Antwort von klusterdegenerierung:

Lauf hier wohl mal wieder im Tarnkappenmodus rum, was solls.








Antwort von Axel:

klusterdegenerierung hat geschrieben:
Lauf hier wohl mal wieder im Tarnkappenmodus rum, was solls.
Nein, tust du nicht. Ich merkte nur bereits an, dass es (anscheinend) keine iOS-Version gibt.



Antwort von klusterdegenerierung:

Das meine ich nicht, ich spreche permanent hier über das Thema Sony Wifi etc. aber drauf eingegangen wird da bei mir nicht.



Antwort von Mediamind:

Ist nicht böse gemeint aber da bin ich z.B. noch gar nicht. Ich teste intensiv erst einmal die Basics und für mich relevanten Dinge. Wifi ist bei mir erste einmal weit hinten in der Liste. Die Kamera mit Gimbal und ohne internen Stabi, dafür aber gyrostabilisiert, dass ist für mich die heiße Sch****.



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Das meine ich nicht, ich spreche permanent hier über das Thema Sony Wifi etc. aber drauf eingegangen wird da bei mir nicht.
Du meintest Camoodoo, oder?
Mediamind hat geschrieben:
Ist nicht böse gemeint aber da bin ich z.B. noch gar nicht. Ich teste intensiv erst einmal die Basics und für mich relevanten Dinge. Wifi ist bei mir erste einmal weit hinten in der Liste. Die Kamera mit Gimbal und ohne internen Stabi, dafür aber gyrostabilisiert, dass ist für mich die heiße Sch****.
Ich schaffe es gar nicht, so viele Sachen auf einmal zu testen.

Anscheinend hat Sony auf Philip Bloom und auf die Katzenfans (inklusive mir, ich spendete auch) mit ihrer Petition gehört, denn Face/Eye Subject: Animal trackt ganz offensichtlich auch die Augen unserer Miezen. Ging noch nicht mit den Vorserienmodellen.



Antwort von klusterdegenerierung:

Nein ich spreche ständig über Wifi/Sony/Gimbal/follow focus Szenarien Test und eigen Erfahrungen und Du eigentlich auch, aber interessanterweise gehst Du auf meine Lösungsansätze die genau in Deinen Interessenbereich fallen nicht ein, wer weiß, vielleicht übersiehst Du sie als vielschreiber.



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Nein ich spreche ständig über Wifi/Sony/Gimbal/follow focus Szenarien Test und eigen Erfahrungen und Du eigentlich auch, aber interessanterweise gehst Du auf meine Lösungsansätze die genau in Deinen Interessenbereich fallen nicht ein, wer weiß, vielleicht übersiehst Du sie als vielschreiber.
Was ich für die A6500 alles für Zubehör angeschafft habe! Schlechtes Monitoring (für Gimbals), da Display bei UHD stark gedimmt wurde, schlimmer Rolling ShutterShutter im Glossar erklärt, nur unter guten Bedingungen brauchbarer AF, die kürzeste Akkulaufzeit, die ich erlebt habe, schlechter als die der Ur-Pocket. Die Kompensation für diese Schwächen war der ganze Gimbal-, Rigging- und Monitoringkram (angefangen sogar bei einer VR-Brille!). Danke Sony für diesen Tamagotchi von einer Kamera! You love the prodrigal son the most.

Jetzt? Gutes Monitoring (es gibt den Akkufresser "Sunny Weather"), je nach Beanspruchung so knapp zwei Stunden Akku (oder praktisch unendlich durch eine schnöde über USB-C verbundene 20€-Powerbank), praktisch kein Rolling ShutterShutter im Glossar erklärt mit zusätzlich sehr brauchbarem IBIS, extrem guter AF.

Mein Traum war schon vor ungefähr zwanzig Jahren extremer sDoF in einer "Plansequenz" (Glidecam, heute Gimbal), bei der ich dennoch den Fokus manuell bestimmen konnte, also "shot transitions". Mätzchen? Gewiss. Ich baute schlecht funktionierende mechanische Remote-Follow-Fokusse aus Fahrradbremsen und später schlecht funktionierende elektrische aus Modellauto-Servomotoren.

All das kann ich seit einer Woche ohne Zusatzgedöns. Wenn ich will bei existing light. Wenn ich will in 4-facher oder 8-facher Zeitlupe. Wenn ich meine, es zu brauchen, kann ich mein Telefon direkt mit der Kamera koppeln und das Bild kontrollieren und sogar die Schärfe ziehen, buchstäblich mit der Fingerspitze. Plötzlich funktioniert alles.

Ich weiß nicht mehr, wer das gesagt hat, Aleister Crowley? Das Problem mit der Magie ist, dass sie nicht funktioniert. Jedenfalls ist da was dran. Wenn etwas funktioniert, haben wir ein Gerät. Etwas, das eine Funktion umsetzt, einen Hammer.

Alles Unfertige hat dagegen etwas Magisches. Die Stützung der chinesischen Wirtschaft durch Ankauf weiterer unfertiger Pseudolösungen ist so eine Art Ablasshandel. Für die Sünde der Unkreativität.

Jetzt halte ich also einen Hammer und suche den Nagel. Ist dies etwa das Ende der Next Camera Disorder? Da lachen ja die Hühner.



Antwort von klusterdegenerierung:

Also persönlich sprach ich nur von meinen Erfahrungen mit der Combi Alpha und Handy und wie gut das funzt und was daraus alles resultieren kann, trotzdem wird da kaum drauf eingegangen und alle brechen sich aber einen mit Kabel und Moni ab und erwähnen dann und wann mal das die Combi Handy Sony (Gimbal/Sony/Handy) ja auch gehen soll, punkt, als wenn ich hier noch nie darüber geschrieben hätte wie gut das geht und welche Möglichkeiten das eröffnet.

Dann kommt ein brendon daher und plötzlich regt sich was, aber so wirklich auch nicht, obwohl dies sogar die meißten Probleme und Notwendigkeiten einer hier besprochenen Cage Lösung zerschlagen würde.

Manchmal frage ich mich, ob man hier nur des Diskutierens wegen diskutiert und garkeine Lösung wünscht?
Wäre ja auch schön blöd, so hätte man ja nix mehr zum quatschen. ;-)



Antwort von Mediamind:

Ich glaube, es ist einfach schlichter. Bei der A7SIII habe ich bisher kein Verlangen nach zusätzlichem Equipment wie Apps, Smartpohnesteuerung, Cage.... In der Vergangenheit hatte ich die App "Fieldmonitor" im Einsatz. Irgendwie ist das alles nicht so erforderlich. Person tracken und das war es. Der AF ist einfach eine andere Nummer. Das Bedürfnis, einzugreifen ist meinem Dafürhalten nach deutlich geringer geworden.
Bereits vor der A7SIII hatte ich ein Instamic mit einem Tentacle als Bluetooth TC Sync Lösung im Einsatz. Der kleine Tentacle ist derzeit das einzige Equipment, welches ich auch auf der A7SIII einsetze. Wenn Cage und Gedöhne, dann nehme ich die GH5/GH5s oder die Z6 mit Ninja. Das Arbeiten mit der A7SIII ist (für mich) anders. Am Wochenende werde ich allerdings trotzdem mal die A7SIII auf den Gimbal setzten und mit dem 85er schauen, wie das dann mit Gyro aussieht. Aber auch da würde ich kein Handy zusätzlich wollen.



Antwort von cantsin:

Mediamind hat geschrieben:
Bereits vor der A7SIII hatte ich ein Instamic mit einem Tentacle als Bluetooth TC Sync Lösung im Einsatz.
Kleine Nachfrage: Wie koppelst Du Tentacle und Instamic?








Antwort von Mediamind:

Ganz einfach und leider nirgends im Detail beschrieben: Beim Aufnahmebeginn liest das Instamic den BT TC des Tentacles und verwendet ihn. Der Sync erfolgt nur einmal und wirklich nur zu Beginn der Aufnahme. Ich habe 5 Teantacles. Bei einem Dreh hatte ich sie praktisch alle im Einsatz, das Instamic war umzingelt von Tentacles und trotzdem hatte ich keinen TC im Instamic. Das ist mir mehr als einmal passiert. Dann habe ich Reichweitentest gemacht. Mal bekam das Instamic den TC noch aus 10 Metern mit, dann war auch schon einmal bei 1,5 Metern Schluss....
Wenn man Record über die App im direkten Nahbereich eines Tentacles (10 cm) startet, ist die TC-Übernahme bei allen Aufnahmen vorhanden. Ich hatte übrigens auch erst gedacht, das Instamic würde mir in der Tentacle App angezeigt. Es gibt leider keine Kontrolle, ob der TC per BT genommen wurde oder nicht. Ich habe dem Hersteller hierzu Feedback gegeben. Ansonsten ist die Soundqualität erstaunlich gut und der Einsatz spielend leicht.
Ach ja: Bei einer Aufnahme hatte ich einen gemessenen Versatz von 7 Frames zwischen der S1, ZoomZoom im Glossar erklärt F6 und dem Instamic.Kamera und Recoder hatten beide ihre Tentacles "an Boord". Das hat sich seither jedoch nicht wiederholt.



Antwort von Mediamind:

Frisch und neu, das FW Update auf Version 1.02:
https://www.sony.de/electronics/support ... s/00017015

Vorteile und Verbesserungen
Behebt ein Problem, bei dem die FTP-Übertragung unter Verwendung bestimmter USB-LAN-Adapter fehlschlagen kann
Hinweis: Nicht alle USB-LAN-Adapter funktionieren garantiert ordnungsgemäß
Verbesserte Verbindungsstabilität des USB-Tethering mit iPhone
Hinweise:
Derzeit unterstützt die USB-Tethering-Funktion noch nicht iOS 14
Wir empfehlen die Verwendung eines Smartphones und eines USB-Kabels, die USB-PD (USB-Stromversorgung) unterstützen
Verbessert die Stabilität der Kamera



Antwort von cantsin:

Mediamind hat geschrieben:
Ganz einfach und leider nirgends im Detail beschrieben: Beim Aufnahmebeginn liest das Instamic den BT TC des Tentacles und verwendet ihn. Der Sync erfolgt nur einmal und wirklich nur zu Beginn der Aufnahme.
Aber vermutlich nur dann, wenn man das Instamic über seine Smartphone-App startet bzw. kontrolliert?



Antwort von Mediamind:

Nein, auch über den Schalter am Instamic selbst holt sich das Mik den TC. Dazu hatte mir Instamic geschrieben:
Nice that you are using the Tentacle Tc. I do it too and I love it.
Instamic reads the TC every time you trigger record. No need to re-sync or jam sync anything other than your cameras.



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Manchmal frage ich mich, ob man hier nur des Diskutierens wegen diskutiert und garkeine Lösung wünscht?
Quatsch, natürlich suchen wir die Lösung. Aber gerade im Zusammenhang mit dem Threadthema ist "Gimbal/Sony/Handy" etwas OT, weil die Direktverbindung Kamera > Handy besser funktioniert als zumindest der Zhiyun-Transmitter via HDMI. Letzteres sind mehr Klicks/Wipes, der Lag ist etwas größer, und das Kästchen braucht wenigstens zwei zusätzliche Kabel und hat auch ein Eigengewicht. Zu all dem ist das letzte Wort bestimmt noch nicht gesprochen. Weil, wann hattest du eine Kamera für sieben Tage (neben deiner Arbeit) und hattest Zeit, sie gut zu kennen?

Dieser Thread ist eine Kennenlern-Beschleunigung, zumindest habe ich Mediamind so verstanden. Und ein Bugbuster- und Problemlöser-Thread.
klusterdegenerierung hat geschrieben:
Wäre ja auch schön blöd, so hätte man ja nix mehr zum quatschen. ;-)
Oh, keine Bange, kluster. Wir finden immer was zum Quatschen.



Antwort von Mediamind:

Ergänzende Erkenntnis zu Catalyst Browse:
Wenn die Medien mit FCPX importiert werden, sind die Gyrodaten futsch. Also erst mit Catalyst den Clip finden und dann stabilisiert exportieren, anschließend in FCPX den stabilisierten Clip importieren. Weitere Erkenntnis: Auch die mit der A7S III mit Steady Shot aufgenommenen Ckiops enthalten Gyrodaten. Dann wird es aber häßlich, weil die Gyrodaten nicht mit dem Stabi abgeglichen sind uns sich somit komplett unbrauchbare Ergebnisse (schlechter als ohne Gyrostabilisierung) erzielen lassen.



Antwort von klusterdegenerierung:

Das man in Catalyst die Thumbansicht nicht nach Datum sortieren kann, ist für mich schon wieder ein Ausschlußkriterium.



Antwort von Mediamind:

Das Programm ist richtig schlecht. Es hat nur einen einzigen Zweck (für mich): Stabilisieren. Ich würde nur in ausgewählten Situationen von der Gyrostabilsierung Gebrauch machen. In diesen Fällen ist sie aber der Hammer. Bisher hatte ich nur Material, bei dem der YT ohne Gimbal rum rennt und dann in der Post stabilisiert. Dieser Anwendungsfall ist für keine Option. Aber aus der Hand einen Schwenk mit längerer BrennweiteBrennweite im Glossar erklärt, da sieht die Welt ganz anders aus. Heute war ich mit meinem Haushaltsvorstand in der Essener Keith Haring Ausstellung und habe ein paar Clips für die Gyrostabilisierung ohne IBIS gemacht, das Ergebnis macht Freude. Ich werde die Szenarien für mich im Einzelnen testen. Besser wäre übrigens ein PluginPlugin im Glossar erklärt, welches das Thema innerhalb von FCPX erledigt.



Antwort von Axel:

Finde auch, dass die Gyro-Stabilisierung besser ein PluginPlugin im Glossar erklärt sein sollte. Hab übrigens auch überall trotz Steadyshot die Gyrodaten.

Was ich an Catalyst Browse immer gut fand bei Sony-Zeug ist, dass die Metadaten detailliert sind. Ausschnitt daraus:

zum Bild


In FCPX fehlen die meisten Informationen (wobei der ShutterShutter im Glossar erklärt Angle auch Quatsch ist, und 1/51 Sekunde gibt's ja eigentlich auch nicht). Dafür ist Catalyst gut: man braucht sich keine Aufnahmenotizen bei Testshots zu machen.








Antwort von Axel:

Neue Erkenntnis zu Autofokus. Ich hatte nie begriffen, wovon Gerald Undone mit seinem "AF ON" überhaupt sprach, aber diese Review an dieser Stelle erklärt es gut:
https://youtu.be/Af9_fGEOAB8?t=208

Also mit anderen Worten, ich fokussiere mal eben automatisch, obwohl ich in MF bin. Die grüne Bestätigung bleibt übrigens aus, wenn der AF "sich nicht sicher ist" (Stilleben). Dann sieht man am MF-Peaking, dass es trotzdem okay ist, und der Fokus pumpt halt nicht. Der Touch-Fokus ist trotzdem präziser.



Antwort von Alex T:

Mediamind hat geschrieben:
Heute war ich mit meinem Haushaltsvorstand in der Essener Keith Haring Ausstellung und habe ein paar Clips für die Gyrostabilisierung ohne IBIS gemacht, das Ergebnis macht Freude.
Willste mal zeigen? Sowohl Haring als auch die Ergebnisse interessieren mich :-)



Antwort von klusterdegenerierung:

Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und PreviewPreview im Glossar erklärt für Log3 oder Auto und alles ist wieder gut.



Antwort von klusterdegenerierung:

Das kommt aufjedenfall dabei raus wenn man sich einen haufen Equipment kauft und am Ende nicht damit umgehen kann.
Sack und Asche was deprimierend.

https://www.youtube.com/watch?v=6EfuovqQNgo



Antwort von Mediamind:

Die arme.... Welch ein Gestolpere. Genau das meine ich mit "die Sache Schank halten". Zur Freigabe des Films aus dem Folkwangmuseum: das ist rechtlich nicht erlaubt. Aufnahmen durften privat gemacht werden, eine Veröffentlichung schließt das leider nicht mit ein.



Antwort von Mediamind:

klusterdegenerierung hat geschrieben:
Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und PreviewPreview im Glossar erklärt für Log3 oder Auto und alles ist wieder gut.
Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, FramerateFramerate im Glossar erklärt,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.



Antwort von klusterdegenerierung:

Mediamind hat geschrieben:
klusterdegenerierung hat geschrieben:
Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und PreviewPreview im Glossar erklärt für Log3 oder Auto und alles ist wieder gut.
Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, FramerateFramerate im Glossar erklärt,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.
Hatt damit auf Axels DP Video geantwortet, da war wieder ein Dude der tempörär nicht funktionierenden AF auf Slog schob.



Antwort von klusterdegenerierung:

Am coolsten finde ich den aufgetronten Transmitter an der 12 Tausend Volt Leitung, die auf einen Schlag das ganze Gimbal Konzept @adsurdum führt.
Sogar der Horizont ist extrem schief und man sieht jede Bewegung, schlimmer noch als wenn man sie einfach in der Hand hält.

Ca 8000 Flocken für Footage welches ich mit ner a6600 butterweich aus der Hand hinbekommen würde.
Ich finds mega. :-)



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Mediamind hat geschrieben:

Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, FramerateFramerate im Glossar erklärt,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.
Hatt damit auf Axels DP Video geantwortet, da war wieder ein Dude der tempörär nicht funktionierenden AF auf Slog schob.
In SLog3 ohne die Funktion (S.47/52) Gamma Display Assist schaut man auf eine total kontrastarme Schwarz-Weiß-Suppe. Gorillas im Nebel. Es ist dann schwierig, äh, motivbasiert manuell scharfzustellen (wiewohl das PeakingPeaking im Glossar erklärt funktioniert). Aber man würde diese Gammafunktion wohl immer benutzen. Die nimmt komplett alle Hemmungen, SLog zu benutzen.

Dein Einwand bezog sich sicher auf das von mir verlinkte Video, in der der Typ behauptete, bei zu bewegungsarmen Bildern und flachem Profil könnte der AF sich nach einer Weile langweilen und zu pumpen anfangen. Das ist, wie sehr viele beiläufige Infos aus Reviews, total irreführend.

Wenn Gesichter und später Augen Priorität haben und getrackt werden, gibt es keine Probleme. Bei einem Interview würde der Fokus auch nach einer Stunde noch "kleben" (wie Bloom sagte, er ist sticky).

Brandon Li hat gesagt (und demonstriert), wann dieser AF aufhören kann, zuverlässig zu arbeiten: wenn Augen, Gesichter und Tracking-Muster alle für länger als vier Sekunden verschwinden.

Wie ich auf die vier Sekunden komme? Ich kann 21,22,23,24 zählen, und bevor ich 24 zuende gesagt habe, springt der AF auf das neue Motiv, wenn ich (S.22/52) AF Subj.Shift Sensitivity auf "1" (Locked On) gestellt habe. Bei "5" (Responsive) bekomme ich einen wirklich kontinuierlichen AF, der bei unklaren Verhältnissen auch pumpen kann. Ich finde "3", die Mitte, ideal und sehe keinen Grund, das zu verstellen.

Was ist denn mit einem einstündigen Interview, bei dem die Person lebhaft gestikuliert und ich damit rechnen müsste, dass sie - zum Beispiel - für mehrere Sekunden in ihre Hände weint?

Dieses an den Haaren herbeigezogene Beispiel wäre trotzdem kein Problem, weil ich natürlich eine Zone festgelegt habe, in der der AF nach dem der Kamera nächsten Motiv Ausschau hält. Gehen die Prioritäten verloren, würden halt dann die Hände scharfgestellt. Der Trackingrahmen irrt in diesem Bereich verzweifelt herum. Aber er fängt nicht an, auf's Geratewohl andere Muster zu tracken. Ist das Gesicht wieder da (oder ein prägnanter Gegenstand, den man getrackt hatte), setzt er wieder an.

Trotzdem habe ich eben ein Beispiel für die Grenzen der Automatik erlebt, das sich ohne weiteres auf andere Szenarien übertragen lässt. Zum Beispiel auf die kritische Situation Brautkuss. Diesen würde man trypischerweise mit einer eher langen BrennweiteBrennweite im Glossar erklärt aufnehmen. Und auch bei ziemlich weit geöffneter Blende. Die Augen sind zu, die Gesichter im Profil, usw.

Zwei meiner Kater, nennen wir sie nach der Fellfarbe Tiger und Panther, kämpften um einen zerfetzten Karton. 85mm, das ist leider das teligste, was ich habe, Animal Face/Eye AF Priority, Wide. Panther liefert dem AF so gut wie gar keine Anhaltspunkte, gelegentliche Reflexe auf dem Rücken, aber das Tier ist zu schnell, alles passiert in Sekundenbruchteilen. Er wäre komplett unscharf aufgenommen worden. Tiger dagegen hat ein trackingfreundliches Gesicht, das zu allen Gelegenheiten, in der er es der Kamera über das Dreiviertelprofil hin zuwendet, sofort erfasst wird. Das Bild "springt" dann sichtbar in die Schärfe.

Es ist aber in dieser Situation auch manuell sehr schwer zu entscheiden, worauf gerade der Fokus liegen soll. Die einzige Lösung in diesem Fall: BlendeBlende im Glossar erklärt zu. Auf BlendeBlende im Glossar erklärt 9 waren beide Tiere und der Karton im Fokus. Da es aber noch ziemlich dämmerig war, blinkte meine ISO auf "3200" (ich habe einen Auto-ISO-Bereich zwischen 640 und 3200 angegeben, da ich 4000 schon zu rauschig finde). Also verstellte ich von Auto ISO auf 12800. Dann konnte ich sogar BlendeBlende im Glossar erklärt 11 nehmen. Ich beließ den manuellen Fokus, um durch das PeakingPeaking im Glossar erklärt zu sehen, ob die Einstellung okay ist.

Um jetzt nochmal auf die AF ON - Taste zurückzukommen und auf ihre Nutzanwendung. Um es kurz zu machen: ich sehe keine Nutzanwendung, aber vielleicht übersehe ich erneut etwas. Szenario: ich befinde mich im manuellen Fokus, der verhindert, dass die Kamera bei chaotischen Mustern und unklaren Motiven (sich bewegende Katze, egal ob lackschwarz oder tigergestreift) pumpt. Ich drücke AF ON (ich hätte die Taste lieber "Push AF" genannt), und in diesem Augenblick springt der Fokus auf das im vorher eingestellten Fokusfeld nächstgelegene Motiv. Es blitzt kurz ein grüner Rahmen auf, und sobald ich die Taste loslasse, flimmert das Peaking.

Okay, wenn jetzt, wie bei Brandon Lis Demonstration des verlorenen Trackings, ein Baum im Vordergrund das Gesicht seiner Freundin verdeckt, nützt mir die Taste nichts. Oder? Wie?
Wenn ich zuvor im AF gewesen bin, würde mir eher (S.17/29, nur erreichbar über 42/52 - Movie Custom Key Setting, ein "Osterei") der AF/MF Selector Hold - Button etwas nützen, wenn er auf einer gut erreichbaren Taste liegt, z.B. dem roten Movie Button.

Meine Freundin wird getrackt, mit aller künstlichen Intelligenz, derer sich die Kamera brüstet. Ein Baum kommt im Vordergrund ins Bild, verdeckt sie. Jetzt habe ich anderthalb Sekunden (AF Subj.Shift Sensitivity auf "3" , der von mir vorgeschlagenen Mitte), um den AF durch Gedrückthalten der Taste zu pausieren. Ist der Baum durch, lasse ich die Taste los. Klingt gut, oder? Ist zugegebenermaßen noch nicht erschöpfend praxiserprobt, funtioniert aber auf dem Schreibtisch ;-)

Außerdem ist MF nicht mehr notwendig gleichzusetzen mit Drehen am Fokusring. Tippen auf das Motiv ist schneller und verlässiger und funktioniert ja auch in MF.








Antwort von klusterdegenerierung:

Axel hat geschrieben:
Meine Freundin wird getrackt, mit aller künstlichen Intelligenz
Oh, das tut mir total leid und hat sie nicht verdient.
Ich hoffe es geht ihr dennoch gut und bestelle mal beste Grüße.



Antwort von klusterdegenerierung:

Axel hat geschrieben:
Ich kann 21,22,23,24 zählen
Komisch, ich komme da auf glatte 90.



Antwort von cantsin:

Die Frage ist, wieviele der neuen, nützlichen Funktionen der A7S III (Autofokus, 10bit, Menüstruktur) auch der Nachfolger der A7iii erhalten wird, und dann zum niedrigeren Preis...



Antwort von Axel:

cantsin hat geschrieben:
Die Frage ist, wieviele der neuen, nützlichen Funktionen der A7S III (Autofokus, 10bit, Menüstruktur) auch der Nachfolger der A7iii erhalten wird, und dann zum niedrigeren Preis...
... und wahrscheinlich mit der für die anderen Produktreihen typischen höheren Sensorauflösung. An den 12MP ist ja das Lowlight-Alleinstellungsmerkmal, wie wir gesehen haben, gar nicht festzumachen.

Das "S" soll für sensitivity stehen, für Lichtempfindlichkeit. Allerdings wohl kaum für angenehmes Rauschverhalten bei höheren ISOs. Offenbar verhalten sich größere Senseln wie größere Schneeflocken. Man sieht an PRAW, dass das ungeglättete Rauschen sehr extrem aussieht. In denselben Situationen ist die Kamera aber in ISO 640 heller als meine A6500 in ISO 800 (deren Base ISO), und zwar sehr deutlich, um schätzungsweise mehr als eine volle Blende. Darum halte ich den ganzen Tanz um Lowlight für verfehlt. Eine gute Faustregel für rauscharme Aufnahmen ist, dass das Bild im Sucher nie heller sein darf als was das Auge sonst sehen kann. Eins zu eins. Ob das eine 24MP (oder höher)- Kamera hinkriegt?

Naja, eventuell dadurch, dass das Rauschen stärker gedithert ist.

Bliebe noch die Schnelligkeit, mit der der Sensor jetzt ausgelesen werden kann, was Konsequenzen für Rolling ShutterShutter im Glossar erklärt und AF hat und natürlich für Serienfotos.

Aber klar, 10-bit in einer A7IV, das wäre bereits super. Für 2299 Öre (UVP der A7III)? Wer weiß? Aber ich schätze nein.

EDIT:
Die Sony A7 IV soll angeblich in der zweiten Jahreshälfte von 2021 auf den Markt kommen und insgesamt mit einem etwas größeren Gehäuse als die A7 III ausgestattet sein. Verbesserungen seien außerdem sowohl beim elektronischen Sucher als auch beim Display geplant. Letzteres soll nämlich mit 1,44 und nicht mehr mit 0,92 Millionen Bildpunkten auflösen, während der EVF eine Auflösung von 3,68 Millionen Bildpunkten zu bieten haben soll. Bei der Sony A7 III waren es noch 2,36 Millionen Bildpunkte.

Das Herzstück der Sony A7 IV soll ein neu entwickelter Vollformatsensor mit einer Auflösung von 30 Megapixeln bilden. Dieser soll selbstverständlich beweglich gelagert sein und außerdem die Aufnahme von 4K-Videos mit 60 fps ermöglichen. Zu den weiteren Merkmalen der A7 IV sollen der Quelle zufolge Dual SD bzw. CFexpress Type A Kartenslots sowie das Menü der A7s III gehören. Preislich soll die Kamera bei 2.499 Dollar liegen.
Von hier.

entspricht 2899 €.

Was Fotografieren mit der A7SIII betrifft, so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden. Ich würde deshalb am liebsten HEIF statt Raw nehmen (= wie Jpeg, aber in 10-bit), aber Photoshop 2021 kann das nicht lesen. Zweite Faustregel: bei Sony für Raw entweder nur GM oder am besten gleich Sigma Art.



Antwort von klusterdegenerierung:

Axel hat geschrieben:
so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden.
Wie wäre es mit Korrektur abschalten?



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden.
Wie wäre es mit Korrektur abschalten?
Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und VignetteVignette im Glossar erklärt krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.



Antwort von cantsin:

Axel hat geschrieben:
Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und VignetteVignette im Glossar erklärt krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.
Auf welches Objektiv bzw. welche Objektive beziehst Du Dich konkret?



Antwort von Axel:

FE35mm 1.8 und FE85mm 1.8. Das SEL2414GM ist etwas besser, aber auch für diesen Preis nicht überragend. Für Nicht-Raw-Video sehen aber alle super aus (ist eher zufällig auch die Brandon-Li-Combo, ich wollte eigentlich das Sigma 40mm, aber Undone und Li fanden das Sony besser).
Was ich damit sagen will: wollte ich in PRAW filmen, käme das noch obendrauf. Fettere und teurere Primes. Das würde nicht nur irgendein Rig, sondern ein ziemlich schweres!



Antwort von cantsin:

Axel hat geschrieben:
FE35mm 1.8 und FE85mm 1.8.
Hmm., die beiden habe ich auch, und da schalte ich (bei RAW-Stills) in RawTherapee die Objektivkorrektur meistens aus, weil ich deren Verzerrung gering finde und die Software-Entzerrung und -Entvignettierung zu einem eher künstlich aufgebrezelten Bild führt...

EDIT -
"Butter bei die Fische":
_DSC1247.jpg Sony FE 35mm/1.8, Offenblende, ohne Softwarekorrekturen
_DSC1247-corrected.jpg Sony FE 35mm/1.8, Offenblende, mit Geometrie- und Vignettingkorrektur (Rawtherapee, auf der Basis von Adobes LCP-Datei bzw. Objektivprofil)



Antwort von Axel:

cantsin hat geschrieben:
Axel hat geschrieben:
FE35mm 1.8 und FE85mm 1.8.
Hmm., die beiden habe ich auch, und da schalte ich (bei RAW-Stills) in RawTherapee die Objektivkorrektur meistens aus, weil ich deren Verzerrung gering finde und die Software-Entzerrung und -Entvignettierung zu einem eher künstlich aufgebrezelten Bild führt...
Hm. Vergleichst du auch schonmal fertig entwickelte Raws mit Jpegs? Oder machst du gar keine Jpegs?



Antwort von cantsin:

Axel hat geschrieben:
Hm. Vergleichst du auch schonmal fertig entwickelte Raws mit Jpegs? Oder machst du gar keine Jpegs?
Mach i.d.R. keine JPEGs, außer bei Fuji-Kameras (deren interne JPEG-Engine besser ist als die meisten RAW-Konverter).

Hab' oben noch ein Beispiel-Vergleichsbild hinzugefügt.



Antwort von Mediamind:

Bei mir kommt die 2. Iso-Stufe regelmäßig zur Anwendung. Mit oder ohne ND, je nach Verhältnissen. Dadurch zeichnet sich für mich die Lowlightfähigkeit aus. Das Material mit ISO 12800 sieht einfach super aus. Mit Iso 8000 oder 10000 sehe ich erst einmal bei dem was ich so mache keinen nennenswerten Unterschied zur S1. Bei 12800 dreht sich das dann aber. Ist jetzt nicht neu... Die sauberen 12800 sind einfach nur nützlich und eröffnen andere Optionen.
Noch einmal eine weitere Ergänzung zu Catalyst:
Im S&Q Modus werden keine Gyrodaten aufgenommen. Ich habe das heute böse erfahren müssen. Ich hatte am Ronin-S die A7SIII mit dem Sigma 85 DGDN Art. Ohne Stabi und ohne Catalyst.... Ich habe mit 50p aufgenommen und habe das nun euphemistisch als Stilmittel deklariert (ist für die Verwandtschaft). Mache einen Fehler, wiederhole ihn und behaupte es sei künstlerisch wertvoll :-)



Antwort von Axel:

@cantsin
Schönes Portrait, schöner Blick. Da merke ich praktisch nichts. Ich bin, was Verzeichnungen betrifft, so paranoid wie Tiefflieger, was Bewegungsunschärfe betrifft.
@Mediamind.
50p in S&Q? Hast du etwa die CF-Karte gekauft?

Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion BlurBlur im Glossar erklärt gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur FramerateFramerate im Glossar erklärt ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.

Was er auch zeigte ist, dass man bei Zeitlupe eigentlich gar keine Bewegungsunschärfe haben möchte, weil es sowieso nicht mehr um einen natürlichen Bewegungseindruck geht.



Antwort von Cinealta 81:

Mediamind hat geschrieben:
Noch einmal eine weitere Ergänzung zu Catalyst:
Im S&Q Modus werden keine Gyrodaten aufgenommen.
Genau so ist es.

@Axel

Bedenken Sie im Rahmen Ihrer Erwägungen zu den Optiken, dass die A7S iii (und auch die FX9) bei Verwendung einer Sony-fremden Optik ebenfalls KEINE Gyrodaten aufnimmt. Es geht nur mit E-Mount-Optiken. Wichtig zu wissen, denn dann kann man Gimbals + In-Camera-Steady nutzen und ist nicht enttäuscht, wenn im Nachgang die Catalyst-Stabi nichts hergibt. ;-)



Antwort von klusterdegenerierung:

Axel hat geschrieben:
klusterdegenerierung hat geschrieben:


Wie wäre es mit Korrektur abschalten?
Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und VignetteVignette im Glossar erklärt krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.
Öööh, ich meinte Kamera!!



Antwort von Mediamind:

@cinealta: Gyrodaten werden auch mit den Sigma DGDN Varianten gespeichert. Es muss also nicht immer Sony sein. Ich habe von YT gehört, dass Tamron z.B. nicht ging. Ich kann mich nicht erinnern, welche Optik das war. Der Kanal hört auf den Namen Camera Conspiracies (durchgeknallter Typ, sehr sympathisch)



Antwort von pillepalle:

Axel hat geschrieben:
Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion BlurBlur im Glossar erklärt gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur FramerateFramerate im Glossar erklärt ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.
1/48s in 60p? Das schafft nur Gerald Undone :D Es geht bei seinem Video eher darum, ob man die höheren Frameraten nachträglich verlangsamt (also als Zeitlupe benutzt), oder nicht. Man braucht sich nur an die 180°Regel für ein natürliches Motion blur zu halten, wenn man das Footage als Zeitlupe nutzen möchte. Ansonsten hat auch bei 50p die 1/50s den natürlicheren Motion BlurBlur im Glossar erklärt Eindruck.

VG



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:


Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und VignetteVignette im Glossar erklärt krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.
Öööh, ich meinte Kamera!!
Probier ich gerade mal aus. Nur Mut, Axel ...
Mediamind hat geschrieben:
@cinealta: Gyrodaten werden auch mit den Sigma DGDN Varianten gespeichert. Es muss also nicht immer Sony sein. Ich habe von YT gehört, dass Tamron z.B. nicht ging. Ich kann mich nicht erinnern, welche Optik das war. Der Kanal hört auf den Namen Camera Conspiracies (durchgeknallter Typ, sehr sympathisch)
Okay. Will natürlich auch hier keinen Fehler machen. Was kann man empfehlen als Tele?

Sony 70-200 f4 G?
Vorteile: interner ZoomZoom im Glossar erklärt, leicht und kurz genug für Gimbal, gibt es gebraucht ziemlich häufig.
Nachteile: auf 200 begrenzt.

Sigma 100-400?
Vorteile: reicht doppelt so weit für nur wenig mehr neu
Nachteile: nur Stativ- oder Handbetrieb, Gyrodaten?
pillepalle hat geschrieben:
Axel hat geschrieben:
Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion BlurBlur im Glossar erklärt gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur FramerateFramerate im Glossar erklärt ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.
1/48s in 60p? Das schafft nur Gerald Undone :D Es geht bei seinem Video eher darum, ob man die höheren Frameraten nachträglich verlangsamt (also als Zeitlupe benutzt), oder nicht. Man braucht sich nur an die 180°Regel für ein natürliches Motion blur zu halten, wenn man das Footage als Zeitlupe nutzen möchte. Ansonsten hat auch bei 50p die 1/50s den natürlicheren Motion BlurBlur im Glossar erklärt Eindruck.
In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?

Ich hielt die 180°-Regel vor Geralds Video für universell.



Antwort von Mediamind:

Ich hatte mich für das 70-200 BlendeBlende im Glossar erklärt vier von Sony entschieden. Die Vorteile gegenüber zum Beispiel Tamron liegen auf der Hand. Die zusätzliche Objektivstabilisierung bringt gerade bei aus der Hand gefilmten Clips eine Menge. Das objektiv ist super kompakt und an der A7S3 eine sehr gute Kombination.



Antwort von pillepalle:

Axel hat geschrieben:
In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?
Weil 1/50s Belichtungszeit länger wäre als Deine 60 Bilder pro Sekunde es zulassen würden. Du kannst maximal einen Shutterangle von 360° haben. Also bei 60p maximal 1/60s als längste Belichtungszeit.

VG



Antwort von Axel:

pillepalle hat geschrieben:
Axel hat geschrieben:
In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?
Weil 1/50s Belichtungszeit länger wäre als Deine 60 Bilder pro Sekunde es zulassen würden. Du kannst maximal einen Shutterangle von 360° haben. Also bei 60p maximal 1/60s als längste Belichtungszeit.
Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° ShutterShutter im Glossar erklärt entspräche, kann man bei den meisten elektronischen Kameras eine VerschlusszeitVerschlusszeit im Glossar erklärt wählen, die länger ist als die Anzeigedauer eines Einzelbildes. Ich kann z.B. bei 25p einen ShutterShutter im Glossar erklärt von 1/12 Sekunde einstellen. Effektiv habe ich damit zwar die Bildfrequenz halbiert, aber es geht. Blick durch den Sucher: sieht aus wie im Wodka-Vollrausch.



Antwort von Axel:

Guter Überblick über speziell das ProResProRes im Glossar erklärt Raw der A7SIII:


Big Sur befindet sich gerade in einer seiner wahrscheinlich letzten Beta-Phasen. Innerhalb von Tagen danach (oder zeitgleich, kam auch schon vor) wird FCP11 herauskommen, ohne Zweifel mit vielen Neuerungen. Welchen Stellenwert Apple dabei PRAW einräumt werden wir ja sehen. Es ist auch die Nagelprobe für FCP-Nutzer. Lässt sich eine Perspektive erkennen, die weitere Investition in Apple Hardware rechtfertigt? Das ist immer spannend. BM hat in den letzten Jahren viel erreicht. Ebenso wie Sony mit der A7SIII die Erwartungen nach all den Jahren übertreffen musste (im Hintergrund kann man sich ebenfalls über die BM-Strategie verbitterte Sony-Bosse denken) kann FCP jetzt mit irgendwelchen lahmen Gimmicks nicht überzeugen. Neben A.I.-Funktionen sollte Wert auf bessere Post-Workflows gelegt werden.



Antwort von manfred52:

Axel hat geschrieben:
Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° ShutterShutter im Glossar erklärt entspräche,
Seit wann sind 1/60s länger als 1/50s?

Der ShutterShutter im Glossar erklärt bei 60p und 1/50s entspricht 432°.




Antwort von Axel:

manfred52 hat geschrieben:
Axel hat geschrieben:
Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° ShutterShutter im Glossar erklärt entspräche,
Seit wann sind 1/60s länger als 1/50s?

Der ShutterShutter im Glossar erklärt bei 60p und 1/50s entspricht 432°.
Verdammt. Religion eins, Kopfrechnen sechs ...
;-))



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Also persönlich sprach ich nur von meinen Erfahrungen mit der Combi Alpha und Handy und wie gut das funzt und was daraus alles resultieren kann, trotzdem wird da kaum drauf eingegangen und alle brechen sich aber einen mit Kabel und Moni ab und erwähnen dann und wann mal das die Combi Handy Sony (Gimbal/Sony/Handy) ja auch gehen soll, punkt, als wenn ich hier noch nie darüber geschrieben hätte wie gut das geht und welche Möglichkeiten das eröffnet.
(...)
Die A7SIII war einmal über WiFi gekoppelt mit dem iPhone, und WiFi blieb aktiv. Nächstes Öffnen der "Remote" über die ImagingEdge App dauerte heute ca. 10 Sekunden, mit nur zwei Abfragen ("Verbinden?" Weiter. "Remote?" OK). Dann kam das so gut wie lagfreie Vorschaubild. Heute wollt' ich's wissen:
> keine gammakorrigierte Vorschau, d.h. das Bild ist ziemlich grau.
> alle wesentlichen Funktionen steuerbar.
> Touchfokus funktioniert, aber es ist eine Einzel-Berührungs-Auswahl-Scharfstellungs-Programmierung, keine Fadenkreuz-erzeugende-und-beim-Loslassen-den-Tracker-triggernde-Scharfstellungs-Programmierung. Ich tipp auf das Motiv, ein weißer Punkt bestätigt die Berührung, und dahin wandert der Fokus. Dieser weiße Punkt hat einen Durchmesser von ca. 5mm auf dem Smartphone-Display. Das ist die Genauigkeit, die erreicht werden kann. Will man eine KanteKante im Glossar erklärt scharfstellen, muss man unmittelbar daneben tippen, sodass der Rand des weißen Punktes die KanteKante im Glossar erklärt berührt. Tippt man mittig auf die KanteKante im Glossar erklärt, weiß die Kamera offenbar nicht, ob Vorder- oder Hintergrund gemeint sind. Dann pumpt sie für eine Sekunde leicht, und keins von beidem wird scharf gestellt.

Insgesamt sehr brauchbar. Stabiler und verzögerungsärmer als der Zhiyun Transmitter (andere kenne ich halt nicht), und der Touchfokus ist auch - für's Erste - nicht schlecht gemacht.

Potato Jet hat in seinem Menu-Video den Punkt erwähnt:
https://youtu.be/cEgwUyKMj7k?t=1667
"Potato Jet"]Ich bin also hingegangen und hab diese App runtergeladen. Sie hat überall schreckliche Bewertungen. Aber ich weiß eigentlich nicht warum, denn ich fand sie ziemlich cool ...
Ich weiß, wieso sie schlechte Wertungen hatte: weil sie bislang kaum funktionierte. Luft nach oben ist noch immer. Vielleicht gibt's die Camoodoo-App ja auch bald für iOS.
[quote=Axel hat geschrieben:

Was Fotografieren mit der A7SIII betrifft, so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden. Ich würde deshalb am liebsten HEIF statt Raw nehmen (= wie Jpeg, aber in 10-bit), aber Photoshop 2021 kann das nicht lesen. Zweite Faustregel: bei Sony für Raw entweder nur GM oder am besten gleich Sigma Art. Die ImagingEdge-App wies mich auch darauf hin, dass es speziell für die Sony A7SIII einen Heif-Konverter gibt. Bei der Installation wird frecherweise tatsächlich die Seriennummer abgefragt.
https://support.d-imaging.sony.co.jp/app/heif/en/



Antwort von Axel:

OT: Lebewohl Trump. Wie schön, diese Broilerfresse demnächst nicht mehr dauernd zu sehen!

Zurück zum Thema:
Gerald Undone hat auf Twitter das gepostet:

zum Bild


Ist ACES wirklich so einfach?


Mit dieser Methode sehen meine Clips nämlich am besten aus, und die Nachbearbeitung ist auch gefühlt flexibler. Vielleicht mag jemand kommentieren?



Antwort von klusterdegenerierung:

Ich hab das ganze tamtam mit ACES auch mal intensiver ausprobiert, aber ich kam nie auf einen halbwegs grünen Zweig, bzw waren die Ergebnisse ohne das ganze tamtam nicht wirklich besser oder einfacher.



Antwort von Frank Glencairn:

Natürlich nicht - ACES lohnt sich nur, wenn du Material von verschiedenen Kameras auf der TimelineTimeline im Glossar erklärt hast.



Antwort von Axel:

Okay, danke schonmal. Kann jemand noch erläutern, was die Nachteile gegenüber einer LUT oder Farbraum-Konvertierung sind?

@kluster
Wieso Tamtam? Scheint doch ganz einfach zu sein ?



Antwort von roki100:

Was scheinbar wenige kennen ist DaVinci Resolve DCTL /ACES and OFX Plugins

https://www.youtube.com/watch?v=rOdm-Kf-Nj8

https://www.youtube.com/watch?v=EeUSQvEvFgw



Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
Natürlich nicht - ACES lohnt sich nur, wenn du Material von verschiedenen Kameras auf der TimelineTimeline im Glossar erklärt hast.
Aber auch, wenn man ein Projekt später in verschiedene Farbräume bringen will (wie z.B. P3 und Rec2020 neben Rec709) und dafür im möglichst großen Farbraum mastern will - natürlich vorausgesetzt, dass das Kameramaterial in einem größeren Farbraum als Rec709 vorliegt. (Was aber beim SLog3+SGamut der A7sIII der Fall ist.)



Antwort von Axel:

Also nochmal: Lässt sich der "Workflow" auf das reduzieren, was in dem von mir verlinkten Video erwähnt wird? Eine einmalige Projekt-Voreinstellung? Und danach, da ich sowieso nur SLog3 habe, kein weiteres "Tamtam"?

Denn *allem Anschein nach* habe ich sowohl im Schnitt eine normalisierte Ansicht als auch in der FarbkorrekturFarbkorrektur im Glossar erklärt keine Einschränkung, verglichen mit Konvertierung oder LUT ...



Antwort von klusterdegenerierung:

Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?



Antwort von Alex T:

klusterdegenerierung hat geschrieben:
Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?
Hier! Ich! Ich! Und nein, noch nicht gelöst. Bzw. die Lösung mit externem Rekorder ist nix für mich. Und es war die A7III ohne "s" ;-)



Antwort von Mediamind:

Bei der A7SIII funktioniert das Facetracking auch mit Recorder. Das Problem war in der tat bei der A7III bekannt. Ich habe das sowohl in RAW als auch mit der normalen Aufzeichnung ohne Einschränkungen probiert.



Antwort von klusterdegenerierung:

"Alex T" hat geschrieben:
klusterdegenerierung hat geschrieben:
Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?
Hier! Ich! Ich! Und nein, noch nicht gelöst. Bzw. die Lösung mit externem Rekorder ist nix für mich. Und es war die A7III ohne "s" ;-)
Öh, jetzt stehe ich auf den Schlauch, heißt das jetzt, nein Du brauchst keine Lösung weil Du keinen Recorder nutzen möchtest?
Heißt das jetzt, nein Du brauchst keine Lösung weil Du keinen Recorder nutzen möchtest, weil Facetracking nicht funktioniert?

Heißt das jetzt, Du würdest einen Recorder nutzen wenn Du eine Lösung hättest?
Heißt das jetzt, Du möchtest eine Lösung? :-))

Heißt das jetzt, nein Du brauchst keine Lösung weil Du eh keine A7III nutzt?
Danke an Mediamind! :-)



Antwort von Alex T:

Also: Ich kenne nur die eine Möglichkeit das Facetracking mit HDMI-Anschluss zu erhalten, das wäre mit externem Rekorder. Ich will aber intern aufzeichnen.

Oder andersrum: Wenn du eine Lösung hast die mit interner Aufzeichnung funktioniert, dann gern her damit.

P.S.: Aktuell ist die A7III als B-/Gimbal-Cam im Einsatz.



Antwort von klusterdegenerierung:

Nö, das wäre dann auch meine Lösung gewesen, die ich bislang nicht kannte.
Die Frage die aber gestellt werden darf, wenn man eh mit mit Atomos unterwegs ist, warum dann auch intern, aber es geht ja "auch nicht", wenn man "nur" einen Monitor benutzt, das hatte ich bislang garnicht berücksichtigt.

Auf der anderen Seite betraf mein Einwand aber auch die User mit Recorder, die ja out of the Box erstmal das selbe Problem haben und wahrscheinlich garnicht wissen, wie sie dieses Problem umgehen können.

So stellt es sich zumindest dar, wenn man mitbekommt wie viele recorder user darüber klagen, das sie kein Facetracking nutzen können.
"Alex T" hat geschrieben:
Also: Ich kenne nur die eine Möglichkeit das Facetracking mit HDMI-Anschluss zu erhalten, das wäre mit externem Rekorder. Ich will aber intern aufzeichnen.
So und das inkludiert leider nicht ganz die Lösung, denn User mit Recorder haben das selbe Problem wie jene mit Monitor.



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?
Ich habe ja keinen externen Recorder. Und soweit ich weiß funktioniert Facetracking auch mit dem Atomos - bei der A7SIII, vielleicht nicht bei der A7III -, lediglich Touchfokus nicht (aber da bin ich jetzt zu faul, Blooms einstündige Review zu reviewen).

Lass mal hören, bitte. Ist zwar relativ unwahrscheinlich, dass ich mir den Ninja hole (aber wer weiß? Am Dienstag und am Mittwoch gibt's ja interessante neue Enthüllungen von BM und Apple), aber wenn, dann weiß ich's vorher.

Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme. Ziemlich lang, darum fasse ich's zusammen:
Es ist nicht die Kamera! Wer mit den Sony-Vorläufern keine guten Videos hinkriegt, der wird auch an der A7SIII scheitern!
Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).

Trotzdem bin ich überzeugt davon, dass PRAW theoretisch sehr viel besser ist als XAVC. Nämlich dann, wenn es vernünftig implementiert ist, bzw. wäre. Ich bin momentan noch am Ball, was den CC-Workflow betrifft. Hier Screenshots (in Resolve mach ich natürlich "Grab Still") von drei Alternativ-Methoden (die vierte, das Graden ohne alle Konvertierung, lass ich jetzt mal außen vor). Alle ohne sonstige Änderung:

zum Bild

Color Space Transform


zum Bild

LUT-SLog3-zu-Rec709-Type-A


zum Bild

ACES

Der Witz an ACES ist, dass es sich tatsächlich in den normalen Lift-Gamma-Gain-Offset-Werkzeugen anfühlt wie Raw im Camera-Raw-Modul:


Du / cantsin / Frank Glencairn seid mir noch einen Hinweis darauf schuldig, wieso ACES unnötiger "Tamtam" ist. Worin bestünde der Mehraufwand?



Antwort von cantsin:

Axel hat geschrieben:
Du / cantsin / Frank Glencairn seid mir noch einen Hinweis darauf schuldig, wieso ACES unnötiger "Tamtam" ist.
Das habe ich nicht geschrieben! Ich hatte nur Franks Anmerkung relativiert, dass sich ACES nur lohne, wenn man das Material verschiedener Kameras mischt. Aber IMHO spricht auch nichts prinzipiell gegen ACES, wenn nur mit einer Kamera gedreht wurde und das Ziel Rec709 ist.

In der Praxis läuft es wohl auf die Qualität der jeweiligen individuellen LUTs, IDTs oder sonstigen Farbraum-Transformationsfunktionen, wie auch in Deinen Beispiel-Screenshots. (Also: ACES mag in der Theorie der bessere Workflow sein, ist es aber in der Praxis nicht, wenn die IDTs für ein bestimmtes Kameramodell schlechter sind als die Hersteller-LUTs und umgekehrt, etc.)

Selbst versuche ich LUT-Workflow mittlerweile so weit wie möglich zu vermeiden, weil LUTs destruktiv sind, und bei anderen Transformationen in Resolve Tone Mapping möglich ist, was ein echter "Live Saver" ist, wenn man von größeren Farbräumen und Dynamikumfängen in kleinere wie Rec709 konvertiert, ohne bei jedem Clip händisch die Kurven absenken zu müssen.

EDIT:
Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme.
Was für ein angenehmer, kompetenter, sachlicher und eloquenter Typ (vor allem im Vergleich zu den überdrehten Influencern und sonstigen YouTube-Staubsaugervertretern).



Antwort von Axel:

cantsin hat geschrieben:
Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme.
Was für ein angenehmer, kompetenter, sachlicher und eloquenter Typ (vor allem im Vergleich zu den überdrehten Influencern und sonstigen YouTube Staubsauger-Vertretern).
Besonders doof fand ich kürzlich Matti Haapoja.
Aber es gibt einige Nachteile . Es ist zum Beispiel viel schwieriger farbzukorrigieren, denn es ist so flach, dass du unheimlich viel tun musst, um es zu einem Punkt zu bringen, wo es mal ein bisschen Kontrast hat. Ja, du kannst einige LUTs oder Konversion-LUTs benutzen dafür, aber irgendwie hab ich das Gefühl, die machen noch nicht so einen richtig guten Job. Und dann die Zebras! Wenn du die nämlich auf "100" oder "100+" setzt, kriegst du sie nie zu Gesicht. Weil es gar nicht bis zu diesem Punkt reicht. Der Workaround ist, dass du die Zebras so weit runterdrehst, bis sie erscheinen. Das ist ein weiteres kleines Ärgernis ...
Ich gucke z.Zt. trotzdem noch (fast) jeden Scheiß, denn zwischendurch sind kleine Entdeckungen und Tricks enthalten.



Antwort von klusterdegenerierung:

Axel hat geschrieben:
vielleicht nicht bei der A7III -, lediglich Touchfokus
Lass mal hören, bitte. Ist zwar relativ unwahrscheinlich, dass ich mir den Ninja hole (aber wer weiß?

Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).
Öh, Slog3 ist kein Gegenteil von PRaw, da passt was nicht zusammen.
Wer mit der A7III facetracking bei Recordern nutzen möchte, muß die interne Aufnahme auf SD deaktivieren.

Darauf muß man natürlich erst mal kommen.



Antwort von Alex T:

klusterdegenerierung hat geschrieben:
Wer mit der A7III Facetracking bei Recordern nutzen möchte, muss die interne Aufnahme auf SD deaktivieren.

Darauf muss man natürlich erst mal kommen.
Ich habe es live beim Job erlebt, konnte es aber auch erst nach der Arbeit aufklären. Die Cam war noch recht neu, eigentlich war es mein erster Job mit ihr. Und ich dachte dauernd, dass das Facetracking doch recht unzuverlässig ist, weil das Quadrat im Gesicht nicht zu sehen war.
Die Cam macht zwar auch ohne Gesichtserkennung immer noch AF aber lange nicht so gut wie mit.
Und ich bilde mir auch ein, dass die Kamera etwas besser aufs Gesicht belichtet bei Auto-ISO, bin mir aber nicht 100% sicher. Sinn würde es aber ergeben.

Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.



Antwort von Mediamind:

Die A7SIII macht vieles richtig. Dass der AF bei der A7III mit einem Ninja ausfällt ist wirklich nicht nett. Auf der anderen Seite sind die 8 BitBit im Glossar erklärt auch kein guter Grund einen Recorder anzustöpseln. Ehrlich gesagt werden die Gründe für einen Recorder bei der A7SIII immer weniger. Wenn ich nicht auf das schmale Brett RAW möchte, ist der Mehrwert überschaubar.
ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.



Antwort von Axel:

"Alex T" hat geschrieben:
Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.
Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Mediamind hat geschrieben:
ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.
Okay, unterschiedliche Kameras anzugleichen, das scheint wirklich ein bisschen "Tamtam" zu sein. Bei einer Kamera in Resolve scheint es aber nicht so wild zu sein. Es gibt zwei Alternativen, eine mit und eine ohne Resolve Studio-Lizenz (Resolve "Lite" importiert kein XAVC in 10-bit), beide total einfach:

a1) In FCP X schneide ich inklusive Retiming und Reframing. KEINE ÜBERBLENDUNGEN! Breiter Gamut HDR für die Mediathek, 709 für das Projekt, allen Clips spende ich die Kamera-LUT SLog3. Ist der Schnitt fertig, stelle ich das Projekt auf rec_2020 und entferne die LUT, dann teile ich es als ProResHQ, mit dem Titel A7SIII-Test-Katzen-Log.

a2) In Resolve "Lite" navigiere ich zum Speicherort der A7SIII-Test-Katzen-Log. Ich mache einen Rechtsklick darauf und wähle ...


zum Bild

... Scene Cut Detection. Danach öffnet sich ein Fenster im Sinne von erkenne Schnitte und importiere die TimelineTimeline im Glossar erklärt als Einzelclips. Du kannst und solltest die durch die Analyse erkannten Schnitte bestätigen oder korrigieren. Sollten 99% Treffer sein.

a3) Ich lege in den Projekteinstellungen (Zahnrad unten rechts) ACES als Color Management fest:


zum Bild


a4) Ich springe direkt in's "Color"-Tab. Die Werkzeuge sind sehr ähnlich wie die in FCP, lediglich über Nodes solltest du dich kundig machen. In Resolve macht die FarbkorrekturFarbkorrektur im Glossar erklärt definitiv mehr Spaß.
a5) Am Schluss gehe ich in's Deliver-Tab, das zwar nicht ganz selbsterklärend ist, aber so ungefähr anhand eines 5-Minuten-Tutorials verstanden werden kann.


MIT Resolve-Studio-Lizenz:
b1) Ich exportiere aus FCPX nach dem Schnitt eine XML (für Resolve am besten immer neueste Version wählen).
b2) Ich öffne Resolve, dann gehe ich zu >File >Import TimelineTimeline im Glossar erklärt >AAF, XML usw.
b3) Ich bestätige im Dialog, dass Sizing-Information übernommen werden soll, aber nicht Color-Information.
b4) von da an wie
a3)

Normalerweise werden Timing-Informationen gut transferiert. Ken Burns usw. klappt weniger zuverlässig, das würd ich vorher einbacken (schon in FCPX exportieren, re-impotieren und in der TimelineTimeline im Glossar erklärt ersetzen).

In FCPX gibt's ja kein ACES. Wenn du dort bleiben wolltest, würde ich eine schöne LUT suchen (bin da kein Experte, ich höre immer was von Venice oder Leeming) und sie, zack!, auf einen über die gesamte TimelineTimeline im Glossar erklärt gezogenen Adjustment-Layer (über >Effekte >Farbe >Eigene LUT) anwenden. Ich hab das Gefühl, die "Kamera-LUTs" im Inspektor sind nicht das Grüne vom Ei ...
bei unterschiedlichen Kameras, die untereinander angepasst werden müssen, gibt es mW nichts in FCPX direkt. Color Finale Pro (und irgendein weiteres CC-Plugin) liefern die Möglichkeit mit so einer Colorchecker-Tafel die Farben anzugleichen.



Antwort von Axel:

"Alex T" hat geschrieben:
Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.
Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Mediamind hat geschrieben:
ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.
Es gibt zwei Alternativen, eine mit und eine ohne Resolve Studio-Lizenz (Resolve "Lite" importiert kein XAVC in 10-bit), beide total einfach:

a1) In FCP X schneide ich inklusive Retiming und Reframing. KEINE ÜBERBLENDUNGEN! Breiter Gamut HDR für die Mediathek, 709 für das Projekt, allen Clips spende ich die Kamera-LUT SLog3. Ist der Schnitt fertig, stelle ich das Projekt auf rec_2020 und entferne die LUT, dann teile ich es als ProResHQ, mit dem Titel A7SIII-Test-Katzen-Log.

a2) In Resolve "Lite" navigiere ich zum Speicherort der A7SIII-Test-Katzen-Log. Ich mache einen Rechtsklick darauf und wähle ...


zum Bild

... Scene Cut Detection. Danach öffnet sich ein Fenster im Sinne von erkenne Schnitte und importiere die TimelineTimeline im Glossar erklärt als Einzelclips. Du kannst und solltest die durch die Analyse erkannten Schnitte bestätigen oder korrigieren. Sollten 99% Treffer sein.

a3) Ich lege in den Projekteinstellungen (Zahnrad unten rechts) ACES als Color Management fest:


zum Bild


a4) Ich springe direkt in's "Color"-Tab. Die Werkzeuge sind sehr ähnlich wie die in FCP, lediglich über Nodes solltest du dich kundig machen. In Resolve macht die FarbkorrekturFarbkorrektur im Glossar erklärt definitiv mehr Spaß.
a5) Am Schluss gehe ich in's Deliver-Tab, das zwar nicht ganz selbsterklärend ist, aber so ungefähr anhand eines 5-Minuten-Tutorials verstanden werden kann.


b1) Ich exportiere aus FCPX navh dem Schnitt eine XML (für Resolve am besten immer neueste Version wählen).
b2) Ich öffne Resolve, dann gehe ich zu >File >Import TimelineTimeline im Glossar erklärt >AAF, XML usw.
b3) Ich bestätige im Dialog, dass Sizing-Information übernommen werden soll, aber nicht Color-Information.
b4) von da an wie
a3)

Normalerweise werden Timing-Informationen gut transferiert. Ken Burns usw. klappt weniger zuverlässig, das würd ich vorher einbacken (schon in FCPX exportieren, re-impotieren und in der TimelineTimeline im Glossar erklärt ersetzen).

In FCPX gibt's ja kein ACES. Wenn du dort bleiben wolltest, würde ich eine schöne LUT suchen (bin da kein Experte, ich höre immer was von Venice oder Leeming) und sie, zack!, auf einen über die gesamte TimelineTimeline im Glossar erklärt gezogenen Adjustment-Layer (über >Effekte >Farbe >Eigene LUT) anwenden. Ich hab das Gefühl, die "Kamera-LUTs" im Inspektor sind nicht das Grüne vom Ei ...



Antwort von klusterdegenerierung:

Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!
Danke, denke, jetzt passt's.



Antwort von roki100:

Bei den gezeigten Bilder, sehe ich zwischen LUT-SLog3-zu-Rec709-Type-A und ACES kaum ein Unterschied? Ich denke, wenn man bei LUT-SLog3-zu-Rec709-Type-A den Color Regler auf +5 oder max. auf +10 erhöht, dann sieht man gar kein unterschied?



Antwort von klusterdegenerierung:

Axel hat geschrieben:
klusterdegenerierung hat geschrieben:
Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!
Danke, denke, jetzt passt's.
?
Sorry, meine Fragen/posts scheinst Du wirklich nicht gerne zu beantworten, ich gebe es hiermit offiziell auf.



Antwort von Alex T:

Axel hat geschrieben:
Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Zhiyun Crane 2



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:


Danke, denke, jetzt passt's.
?
Sorry, meine Fragen/posts scheinst Du wirklich nicht gerne zu beantworten, ich gebe es hiermit offiziell auf.
Verzeihung, wie gesagt, mangels eines externen Recorders kann ich nicht beantworten, ob Facetracking bei paralleler XAVC-Aufnahme noch funktioniert. Ich bin hier nur nebenbei auf slashCAM, hab die Kamera vor mir und wechsel noch ständig zwischen Resolve und FCP hin und her.
klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).
Öh, Slog3 ist kein Gegenteil von PRaw, da passt was nicht zusammen.
Gegenteil hab ich nicht geschrieben. Das bezog sich auf das von mir verlinkte Video, in dem der Reviewer sagt, bis auf dass PRAW mehr rauscht, kann ich beim besten Willen keinen Unterschied sehen. Gegenteil ungleich Unterschied.
"Alex T" hat geschrieben:
Axel hat geschrieben:
Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Zhiyun Crane 2
Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?
roki100 hat geschrieben:
Bei den gezeigten Bilder, sehe ich zwischen LUT-SLog3-zu-Rec709-Type-A und ACES kaum ein Unterschied? Ich denke, wenn man bei LUT-SLog3-zu-Rec709-Type-A den Color Regler auf +5 oder max. auf +10 erhöht, dann sieht man gar kein unterschied?
ACES ist deutlich etwas dunkler. Vielleicht Gammashift, weil ich nicht 709-Type-A einstellen kann? Muss mal weiterforschen ...



Antwort von klusterdegenerierung:

Axel, das mit dem Praw ist so eine Sache, weil es sowohl 10bit, als auch 12bit 4444 sein kann, je nach interpretation und beides sieht erstmal identisch aus und die Dynamik ändert sich selbstverständlich auch nicht, aber es ist immerhin ein Raw und Du weißt ja von Fotos, was das bedeutet.

Auf ein Raw rauscht mehr als ein jpg, aber trotzdem kannst Du diesen Aspekt getrost vergessen, denn jeder belichtet unterschiedlich gut oder schlecht und das kannst Du bei fremdmaterial nie wissen.

Ich bin gerade dabei einen Unterschied zu checken und wandel gerade das PRaw in ProResProRes im Glossar erklärt 4444 HQ und vergleiche es geben 422 10Bit.
Das wird man aber eh nur beim graden sehen können und sicherlich an einer saubereren Datei.

Werde berichten.



Antwort von Alex T:

Axel hat geschrieben:
"Alex T" hat geschrieben:
Zhiyun Crane 2
Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?
Ja, funktioniert gut: REC, ISO, BlendeBlende im Glossar erklärt, Belichtung. Aber ich verzichte, weil mir Facetracking wichtiger ist, denn das ist eine Offenbarung für gewisse Situationen, besonders auf dem Gimbal. Ich nutze die Cam auf dem Crane 2 ohne Kabel.



Antwort von Axel:

"Alex T" hat geschrieben:
Axel hat geschrieben:
Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?
Ja, funktioniert gut: REC, ISO, BlendeBlende im Glossar erklärt, Belichtung. Aber ich verzichte, weil mir Facetracking wichtiger ist, denn das ist eine Offenbarung für gewisse Situationen, besonders auf dem Gimbal. Ich nutze die Cam auf dem Crane 2 ohne Kabel.
Noch keinen Schimmer mit der A7SIII und dem Weebill S. USB-C kann es nicht sein & Micro-USB ("Multi") wird nicht erkannt. Aber mir ist es auch nicht eilig.
klusterdegenerierung hat geschrieben:
Auf ein Raw rauscht mehr als ein jpg, aber trotzdem kannst Du diesen Aspekt getrost vergessen, denn jeder belichtet unterschiedlich gut oder schlecht und das kannst Du bei fremdmaterial nie wissen.
Bei "Lowlight" ist es offenbar besser, etwas heller zu belichten als es das Auge sieht. Nicht, um es so zu lassen, sondern um es später wieder abzusenken. Um tiefe Schatten zu kriegen, obwohl man die tiefen Schatten gar nicht mit aufgenommen hat. Bei grellem Sonnenschein - den wir ja heute hatten - gilt definitiv das Gegenteil, weil man durchaus clippen kann. Dann gibt es noch "normal".

Ist ja alles nichts Neues. Gegenüber der A6500 ist es höchstens so, dass diese Bereiche jetzt weiter auseinander liegen. Bei der muss es bei Lowlight ganz klar heller sein als es das Auge sieht. Aber die Unterschiede sind quantitativ zu messen, sie sind relativ und inkrementell.

Eine absolut gleichmäßige Belichtung ist in SLog3 nur unter gleichen Lichtbedingungen oder unter Verzicht auf optimierte Dynamik möglich. Und im Kreativmodus "Standard" am besten durch "P" - Automatik. Gerald Undones Graukarte zur Belichtung werde ich gewiss nicht vor jeder Aufnahme vor die Linse halten.

Da wir gerade von Graukarte sprechen: ein benutzerdefinierter WeißabgleichWeißabgleich im Glossar erklärt ist in den Memory-Modi *nicht* möglich. Das ist bitter. Es zwingt einen dazu, sich vom Movie-Modus immer komplett durch alle Einstellungen zu zappen. Man kommt sich vor wie ein Flugzeugkapitän beim Check seiner Instrumente.

Hey, kluster, ich hab gerade ein sehr gutes Argument für Raw gefunden!



Antwort von anamorphic:

Hat einer der A7s III Besitzer schon mal geprüft ob bei Benutzung der Imaging Edge Mobile App als Vorschaumonitor eine Slog Aufnahme möglich ist?
Bisher war es ja bei allen Alpha Modellen so dass bei Aktivierung der App die Gammaeinstellung auf Rec709 zurücksprang.
Im Gimbal mit Autofokus reicht mir das Smartphone als kabelfreier, leichter Monitor.



Antwort von Axel:

anamorphic hat geschrieben:
Hat einer der A7s III Besitzer schon mal geprüft ob bei Benutzung der Imaging Edge Mobile App als Vorschaumonitor eine Slog Aufnahme möglich ist?
Bisher war es ja bei allen Alpha Modellen so dass bei Aktivierung der App die Gammaeinstellung auf Rec709 zurücksprang.
Im Gimbal mit Autofokus reicht mir das Smartphone als kabelfreier, leichter Monitor.
Axel hat geschrieben:
Die A7SIII war einmal über WiFi gekoppelt mit dem iPhone, und WiFi blieb aktiv. Nächstes Öffnen der "Remote" über die ImagingEdge App dauerte heute ca. 10 Sekunden, mit nur zwei Abfragen ("Verbinden?" Weiter. "Remote?" OK). Dann kam das so gut wie lagfreie Vorschaubild. Heute wollt' ich's wissen:
> keine gammakorrigierte Vorschau, d.h. das Bild ist ziemlich grau. Edit: aber in SLog!
> alle wesentlichen Funktionen steuerbar.
> Touchfokus funktioniert, aber es ist eine Einzel-Berührungs-Auswahl-Scharfstellungs-Programmierung, keine Fadenkreuz-erzeugende-und-beim-Loslassen-den-Tracker-triggernde-Scharfstellungs-Programmierung. Ich tipp auf das Motiv, ein weißer Punkt bestätigt die Berührung, und dahin wandert der Fokus. Dieser weiße Punkt hat einen Durchmesser von ca. 5mm auf dem Smartphone-Display. Das ist die Genauigkeit, die erreicht werden kann. Will man eine KanteKante im Glossar erklärt scharfstellen, muss man unmittelbar daneben tippen, sodass der Rand des weißen Punktes die KanteKante im Glossar erklärt berührt. Tippt man mittig auf die KanteKante im Glossar erklärt, weiß die Kamera offenbar nicht, ob Vorder- oder Hintergrund gemeint sind. Dann pumpt sie für eine Sekunde leicht, und keins von beidem wird scharf gestellt.

Insgesamt sehr brauchbar. Stabiler und verzögerungsärmer als der Zhiyun Transmitter (andere kenne ich halt nicht), und der Touchfokus ist auch - für's Erste - nicht schlecht gemacht.

zum Bild


Tip 1: vorm Start der App die "Ausrichtungssperre" des Smartphones einschalten. Also die Auto-Orientierung aus. Ihr wisst schon.
Tip 2: wenn man den EVF benutzt und den Monitor als MF/AF-Touch-Pad, ist es besser, in den Touch-Pad-Settings auf Seite 46/53 >Operation Area auf Right 1/2 zu setzen. Dadurch triggert man als Rechtsäuger nicht versehentlich das Tracking mit der Nase. Wie auch immer, für den Remote über Berührung des Smartphone-Displays muss diese Einstellung wieder auf Full Screen.



Antwort von Mediamind:

Neben der einstellbaren Geschwindigkeit bei Wechsel der Farbtemperatur im Modus Auto WB habe ich die 3 Speicherplätze für Custom Settings als hilfreich empfunden. Nicht weil es sie gibt (die Konkurrenz hat das auch im Portfolio), sondern die Kamera gibt die Farbtemperatur nach einer Spotmessung als konkreten Wert aus. Meine anderen Kameras verschweigen mir, welche Farbtemperatur sie auf der Graukarte sehen. Das macht beim Multicamshoot die Sache für mich einfacher. Gerade bei Mischlicht kann das eine nette Hilfe sein. Den Messwert übernehme ich dann für die anderen Kameras. Feine Sache.



Antwort von Axel:

Mediamind hat geschrieben:
Neben der einstellbaren Geschwindigkeit bei Wechsel der Farbtemperatur im Modus Auto WB habe ich die 3 Speicherplätze für Custom Settings als hilfreich empfunden. Nicht weil es sie gibt (die Konkurrenz hat das auch im Portfolio), sondern die Kamera gibt die Farbtemperatur nach einer Spotmessung als konkreten Wert aus. Meine anderen Kameras verschweigen mir, welche Farbtemperatur sie auf der Graukarte sehen. Das macht beim Multicamshoot die Sache für mich einfacher. Gerade bei Mischlicht kann das eine nette Hilfe sein. Den Messwert übernehme ich dann für die anderen Kameras. Feine Sache.

Wenn ich im Cam-Memory-Modus bin, steht mir Custom WB leider nicht zur Verfügung. Ich muss in den Movie-Modus wechseln. Dort wird mir zwar, wie du sagst, die momentane Farbtemperatur in Hunderterschritten angezeigt (aktuell 6100°K). Wenn ich aber wieder in 1,2 oder 3 bin, ist diese Speicherung weg, und ich müsste manuell über "K" gehen.

Warum bleibe ich also nicht gleich im Movie-Modus?

Nun ja, das tu ich auch. Es ist nur ein bisschen schade, weil es schon 20-30 Sekunden kostet, jedesmal nach dem Einschalten zu checken, ob alle Parameter passen.



Antwort von Mediamind:

Kann ich nachvollziehen. Ich wechsle eigentlich nur zwischen Moviemodus und S&Q. Dafür habe ich mir die FramerateFramerate im Glossar erklärt für den S&Q Modus in den Schnellzugriff über das einblendbare Menü gelegt. Mehr brauche ich derzeit nicht. Ich habe (noch) keine passende Verwendung für 1,2 und 3 gefunden.



Antwort von Mediamind:

Nachdem ich beim Black Friday zwei 128 GB Lear V90 Karten geschossen habe, konnte ich zu der vorher erworbenen V90 von Kingston einen Vergleich ziehen. Die Kingston funktioniert zwar mit bis zu 120 fps, ist aber um Klassen langsamer als die Lexarkarten. Sie erreicht noch nicht einmal das Niveau einer Sandisk Extreme Pro beim Schreiben. Die Lexarkarten schaffen mit dem Black Magic Speedetest ca. 190 MB/sMB/s im Glossar erklärt im Schreibvorgang und lesen mit ca. 230 MB/s.
Die Kingston schafft mal gerade 35-45 MB/sMB/s im Glossar erklärt zu schreiben, dafür aber 177 MB7s im Lesemodus. Ist das beiden anderen Kingstonkäufern auch so gravierend langsamer?



Antwort von roki100:

Auch unter Kingston selbst, gibt es doch unterschiede. Wie mit V30, ist mit V90 sicherlich nicht anders. Beispiel: Kingston CANVAS React, ist langsamer als Kingston CANVAS Select PLUS. Und dazu kommt noch, dass das Ganze auch vom Karten lese/schreib Gerät abhängig ist. Beispiel mein "renkforce" ist langsamer als "transcend". Bei den Karten lese/schreib Komponenten in der Kamera ist das wahrscheinlich auch so.



Antwort von rush:

Mediamind hat geschrieben:
konnte ich zu der vorher erworbenen V90 von Kingston einen Vergleich ziehen. Die Kingston funktioniert zwar
Führe doch bitte nochmal an welche Karten Du konkret hast und in welcher Größe... Kingston hat ja auch ziemlich viele Karten im Markt - da ist das jetzt nicht ganz so eindeutig worauf Du dich beziehst.
Geht es um die Canvas React Plus Modelle oder ein anderes Derivat? Denn wie roki richtig erwähnt ist bei Kingston selbst die Canvas Reihe etwas durcheinander geraten.



Antwort von Mediamind:

Es handelt sich um die 128 GB Version der Canvas React Plus. Ich retourniere sie. Das ist mir zu riskant, ich brauch keine Drop Frames bei höheren Schreibraten.



Antwort von cantsin:

Mediamind hat geschrieben:
Es handelt sich um die 128 GB Version der Canvas React Plus. Ich retourniere sie. Das ist mir zu riskant, ich brauch keine Drop Frames bei höheren Schreibraten.
Habe exakt diese Karte, mit der folgenden Performance laut AJA System Test (mit den anspruchsvollsten Dauer-Parametern):

kingston.PNG
Dein Exemplar dürfte entweder defekt oder im schlimmsten (aber leider nicht unwahrscheinlichen) Fall eine Fälschung sein.



Antwort von rush:

Meine Tests sind auch mehr als zufriedenstellend mit den React Plus Karten gewesen - inkl. problemloser Nutzung in der P4K in diversen Flavors.
Würde daher auch empfehlen das ggfs. nochmal genauer zu checken.



Antwort von Axel:

Bei mir auch. XAVC-i in 50p ohne Murren.



Antwort von r.p.television:

Ich habe folgende Karten auch schon mehrmalig randvoll geschrieben mit UHD XAVC S-I 50p (teilweise sogar 60p was ja auch nochmal 100mbit mehr ausmacht). Ich habe alle aufgelisteten Karten jeweils 2mal.

https://www.amazon.de/gp/product/B08588 ... UTF8&psc=1

https://www.amazon.de/gp/product/B012PL ... UTF8&psc=1

Da sind auch die eben erwähten React Plus dabei. Bisher alles ohne ein einziges Problem.
Nur nicht die Sandisk ohne V90 kaufen. Bei denen verweigert die A7siii die Zusammenarbeit für All_Intra und man kann damit nur Sachen machen als ob es eine V30 wäre.

Diese hier habe ich retouniert weil unbrauchbar: (die Geschwindigkeitsangabe ist irrelevant, die Karten MÜSSEN das V90-Badge haben)

https://www.amazon.de/gp/product/B01JYU ... UTF8&psc=1



Antwort von klusterdegenerierung:

Hab auch so eine ähnliche Lexar Pro, ist leider langsamer als wesentlich günstigere und macht mehr Ärger als alle anderen.

Ich muß noch mal eine Lobhymne auf die Samsung Pro trällern, denn die sind bei mir im ewigen Dauerfeuer und die waren mit Abstand die günstigsten Karten von allen und ich habe gleichzeitig mit ihnen noch nicht ein Problem gehabt.

Ich glaube die werden total unterschätzt und interessant auch, das die bezeichneten Werte im Gegensatz zu anderen Brands exakt übereinstimmen.
Mußte ich doch noch mal los werden.



Antwort von Mediamind:

Ist schon komisch. Ggf. liegt das ja auch an meinem Messverfahren. Ich nutze den mitgelieferten USB Kartenlesen und habe es auch mit dem von Lear probiert. Das Ergebnis ist nach wie vor nicht gut. In der Kamera hatte ich bisher keine Probleme. Vielleicht sollte ich es einfach dabei belassen.
Es gab übrigens ein Fatalist Browse Update, in den reales Notes fand sich der Hinweis, dass man an der A7SIII den Stabi aus macht oder aber auf Aktiv schaltet. Das wäre neu. Damit geht man kein Risiko ein, ich nutze sowieso immer die Einstellung Aktiv, die Ergebnisse wirken auf mich natürlicher. Ich werde das einmal ausprobieren.



Antwort von Mediamind:

Erster Test aus der Hand im häuslichen Umfeld: Gyrostabiliserung in Catalyst Browse läuft mit Steadyshot auf "Active" ohne Probleme.



Antwort von rush:

Checke die React Plus Karten doch ggfs Mal via CrystalDiskMark - idealerweise in unterschiedlichen Readern und an unterschiedlichen USB Ports .. vielleicht hast du da ja bereits irgendwo 'nen Flaschenhals drin. Manchmal mögen bestimmte Controller entsprechende Gegenstellen aus unerklärlichen Gründen nicht.

Ich hatte seinerzeit jedenfalls sehr flotte Resultate - auch wenn die erste Karte leider vom Beginn an "tot" gewesen ist.
Die zweite und auch die Austauschkarte sowie eine später dritte gekaufte laufen seit jeher tadellos und ohne Fehler.

Hier wurde die React Plus im übrigen getestet in diversen Benchs - die Ergebnisse solltest Du in etwa auch erreichen können. Ich habe meine Resultate nicht mehr im Kopf aber sie waren ähnlich angesiedelt meine ich:

https://www.kitguru.net/tech-news/featu ... -review/3/



Antwort von klusterdegenerierung:

Puh, das ist dann schon mehr als peinlich.
Ohne dieses Monsterrig hätte es wohl garnicht gewackelt. :-)

https://www.youtube.com/watch?v=hx4P1-NH3k0



Antwort von Mediamind:

Da bekomme ich Rückenschmerzen, wenn ich das nur sehe :-)

EIne Frage stellt sich mir jedoch, die ich nicht ganz erklärt bekomme. Im XAVC HS CodecCodec im Glossar erklärt sind keine 25p möglich. Ich muss dann auf 50p gehen und werfe jeden 2. FrameFrame im Glossar erklärt weg. Gibt es irgendeinen Grund, warum Sony kein 25p implementiert hat?



Antwort von klusterdegenerierung:

Ich hatte mir mal ne Cinema 4K bestellt, die kam 1 Jahr danach.



Antwort von r.p.television:

Mediamind hat geschrieben:
Da bekomme ich Rückenschmerzen, wenn ich das nur sehe :-)

EIne Frage stellt sich mir jedoch, die ich nicht ganz erklärt bekomme. Im XAVC HS CodecCodec im Glossar erklärt sind keine 25p möglich. Ich muss dann auf 50p gehen und werfe jeden 2. FrameFrame im Glossar erklärt weg. Gibt es irgendeinen Grund, warum Sony kein 25p implementiert hat?
Da ich meine A7siii damals 2 Stunden vor einem Dreh bekommen habe, hat mich genau diese Frage fast zum Wahnsinn getrieben, weil ich dachte ich wäre zu blöd. Im Endeffekt nicht wirklich begreiflich.



Antwort von Mediamind:

Ging mir genau so. Nach dem Motto: Was Sie schon immer über Codecs wissen wollten, aber bisher nicht zu fragen wagten
Ich dachte, ich wäre zu blöd um das hinzubekommen und es läge an meinem Unverständnis. Ich habe auch nie etwas dazu gehört, dabei ist das so merkwürdig. Der CodecCodec im Glossar erklärt ist hocheffizient und dann macht man alles unnütz wieder größer durch 50P....



Antwort von rush:

klusterdegenerierung hat geschrieben:
Puh, das ist dann schon mehr als peinlich.
Ohne dieses Monsterrig hätte es wohl garnicht gewackelt. :-)

Wahrscheinlich hatte er vorher 'ne Kiste oder Optik mit Stabi ;)
So bringt auch die vermeintlich beste Kamera in der Tat wenig wenn sie falsch eingesetzt wird.



Antwort von r.p.television:

Was ich ja interessant finde ist das Gemecker aller Youtuber dass sie das XAVC HS (H.265) nicht schneiden können weil ihr Computer es nicht schafft. Sie betonen dabei immer dass sie den "neuen" Mac irgendwas haben aber sie müssen zu Proxies wechseln.
Ich hab hier einen 3000 Euro Desktop-PC und das Material läuft in Premiere absolut flüssig ohne Ruckler. Bei mir ist eine 2080 Ti Grafikkarte an Bord. Apple hat da scheinbar wie so oft ein Problem mit der Wiedergabe von diversen Codecs. Die Kamera kann eher nichts dafür.



Antwort von rush:

Entsprechende Nvidia Karten können h.265 Material dekodieren. Meine 1070 noch nicht, aber die Nachfolge-Generation der 2000er und 3000er können das demnach sehr wohl.

Apples M1 beherrscht das aber meines Wissens nach auch - dafür benötigt es also keine 3000€ Maschine sondern die richtige Hardware und in der Windows Welt ggfs dann noch die passende Software um die GraKa diese Dekodierung übernehmen zu lassen... Dann flutscht es auch mit überschaubaren Budget.



Antwort von r.p.television:

Ich finde es immer nur lustig dass ein bestimmtes Klientel "den neuesten Mac" als Speerspitze der Technik betrachtet und wenn ihre Hardware es nicht schafft MUSS ja ein Fehler in der Matrix sein. Mein Desktop PC von Ende 2019 ist aber scheinbar ein Jahr voraus. Man braucht wie Du schon sagst nur die richtigen Komponenten.



Antwort von klusterdegenerierung:

Ich finde das muß man garnicht so zynsch darstellen, denn es liegt ja in der Natur der Sache, da ein Mac immer eher als komplett Lösung daher kommt und nicht als neuste Einszelteile.

Da verwundert es doch nicht, das wenn dann mal ein neuer daher kommt, man sich dann überlegt ihn zu kaufen.
Mal ne neue CPU oder Graka einparken ist da ja nicht so angesagt, von daher finde ich dieses verhalten völlig normal und den Umständen entsprechend.

Ein Freund von mir macht es im übrigen beim PC genauso und kauft sich alle Jahre wieder einen prekonfigurierten Dell.



Antwort von Axel:

Effizienz und kleine Dateigrößen sind nicht alles. Zum Glück gibt's in der Kamera Alternativen zu H.265. Also z.B. alles in 50p aufnehmen zu müssen, weil die Kamera kein 25p in HEVC kann, ist für ein weiterer Grund nicht sauer zu sein, dass der CodecCodec im Glossar erklärt meine Hardware nicht mag (bzw. umgekehrt).



Antwort von r.p.television:

klusterdegenerierung hat geschrieben:
Ich finde das muß man garnicht so zynsch darstellen, denn es liegt ja in der Natur der Sache, da ein Mac immer eher als komplett Lösung daher kommt und nicht als neuste Einszelteile.

Naja, so wie die Kameraden das betonen "i have the newest Mac Pro blablabla...for xxxxx $$$" und es zum Vorwurf erheben dass sie nun trotz allem Proxies nutzen müssen. Denn nach ihrer Auffassung schafft es kein Computer der Welt das Zeug zu schneiden. Und so kommunizieren sie das dann auch. Ein Blick über den Tellerrand wäre manchmal hilfreich, erst recht wenn seit einem Jahr Hardware existiert die das ohne weiteres kann und vermutlich günstiger ist.

EDIT: Soll jetzt kein Apple-Bashing sein. Ich will hier nur betonen dass man das HEVC 10bit 422 durchaus mit irdischen Mitteln schneiden kann. Und durchaus mit seit länger verfügbarer Hardware und keiner Weltraumtechnologie.



Antwort von roki100:

also PC-Hardware ersetze ich öfter gegen neu, ohne auf Apple MacOS verzichten zu müssen (Hackintosh). Letztens von NVIDIA auf Radeon RX 580 8GB (wegen Catalina)... und davor CPU, mehr RAM etc. Läuft wie immer super.



Antwort von r.p.television:

Gerade gefunden:

https://www.youtube.com/watch?v=H5Rat4xxkUg

Hab mal ein Profil anhand der Settings erstellt und werde es bei einem Dreh testen. Ich bin gespannt. Habe desöfteren einen Dreh wo alles Out-of-Cam schön aussehen soll. Das wäre eine echte Bereicherung und würde eine alte FS7 wohl schlecht dastehen lassen.



Antwort von rush:

r.p.television hat geschrieben:
Denn nach ihrer Auffassung schafft es kein Computer der Welt das Zeug zu schneiden. Und so kommunizieren sie das dann auch. Ein Blick über den Tellerrand wäre manchmal hilfreich, erst recht wenn seit einem Jahr Hardware existiert die das ohne weiteres kann und vermutlich günstiger ist.

EDIT: Soll jetzt kein Apple-Bashing sein. Ich will hier nur betonen dass man das HEVC 10bit 422 durchaus mit irdischen Mitteln schneiden kann. Und durchaus mit seit länger verfügbarer Hardware und keiner Weltraumtechnologie.
Kann man sich direkt knicken und bringt oft nichts mit Apple-Hardlinern über sowas zu sprechen... es bringt am Ende des Tages oft nur schlechte Laune :-)
Und selbst wenn nicht sein kann was nicht sein darf: Ist dann halt kein Mac und viel zu kompliziert alles mit diesem Bluescreen-Windows...

Gibt aber zum Glück auch immer öfter Nutzer die aus privaten oder beruflichen Gründen in beiden Welten "unterwegs" sind und dann jeweils die verschiedenen Vor und Nachteile beider Systeme kennen - mit denen kann man dann zumindest hier und da 'ne Runde quatschen/fachsimpeln. Alles andere gebe ich mir eigentlich auch nicht mehr sondern nicke dann nur freundlich und belasse es bei der heilen Apple-Welt wenn jemand nur noch diesen engen Blickwinkel meint fahren zu müssen.

Letzten Endes zeigt der Thread aber sicherlich ganz gut wo die Reise hingehen kann und das h.265 kein Teufelswerkzeug sein muss wenn ein paar Komponenten und die Software darauf angepasst sind... aber das war seinerzeit bei AVCHDAVCHD im Glossar erklärt bzw. den ersten Derivaten von h.264 doch keinen Deut anders. Damals habe ich meine Hard,- und Software auch genau darauf ausgelegt hab - mit QuickSync in Kombination mit Edius, weil das lange Zeit tatsächlich ganz hervorragend funzte während andere noch gefühlte Ewigkeiten Intermediates generierten und das für das größte hielten... Mir war's wumpe. Jeder muss seinen Weg finden - und die Türen stehen heute offener denn je. Der klein M1 und nachfolgende Apple Chips werden das sicher genauso gut im Griff haben wie entsprechend dedizierte GraKas.

@r.p.: Berichte gern... ich würde mir eine A7 auch möglichst so hindrehen das ich in der Post nicht mehr allzu viel erledigen muss. Das spart Zeit und Geld wenns bereits out of the box mehr oder weniger passt.



Antwort von Axel:

rush hat geschrieben:
r.p.television hat geschrieben:
EDIT: Soll jetzt kein Apple-Bashing sein. Ich will hier nur betonen dass man das HEVC 10bit 422 durchaus mit irdischen Mitteln schneiden kann. Und durchaus mit seit länger verfügbarer Hardware und keiner Weltraumtechnologie.
Kann man sich direkt knicken und bringt oft nichts mit Apple-Hardlinern über sowas zu sprechen... es bringt am Ende des Tages oft nur schlechte Laune :-)
Ach was, wer wird sich denn die Laune verderben lassen ...

For the record (EDIT: r.p. television war schneller):


Hab ich gerade auf PP9 gelegt. Noch nicht probiert, da wart ich morgen auf Sonne.

Von Marteen Heilbron ein Tip, den ich noch nicht kannte:
S. 10/54 > Exposure Ctrl Type > Flexible Exp. Mode. Damit lassen sich Custom Tasten belegen, z.B. die (von mir halt) selten benutzte AE-Lock-Taste mit
> Av Auto/Manual Switch.

Man drückt die Taste, die vorübergehend die Blendenautomatik aktiviert. Man drückt sie erneut, um die BlendeBlende im Glossar erklärt dort zu fixieren (man braucht ja dann kein AEL). Wusste ich nicht.



Antwort von Axel:

Bei Cine4 scheint Zebra 100+ zu sein und Base Iso 100. Damit ETTR oder was?



Antwort von rush:

Axel hat geschrieben:
Bei Cine4 scheint Zebra 100+ zu sein
Sollte das Zebra nicht immer auch konfigurierbar sein? Würde mich zumindest wundern wenn es bei de A7sIII in einem bestimmten Profil nicht einstellen lassen würde. Oder meinst Du was anderes?



Antwort von Axel:

rush hat geschrieben:
Axel hat geschrieben:
Bei Cine4 scheint Zebra 100+ zu sein
Sollte das Zebra nicht immer auch konfigurierbar sein? Würde mich zumindest wundern wenn es bei de A7sIII in einem bestimmten Profil nicht einstellen lassen würde. Oder meinst Du was anderes?
Ich überbelichte krass, dann verschwinden bei SLog3 die Zebrastreifen bei ca 94%, bei Cine4 verschwinden sie nie. Wollte mich einfach nur vergewissern.



Antwort von klusterdegenerierung:

r.p.television hat geschrieben:
EDIT: Soll jetzt kein Apple-Bashing sein. Ich will hier nur betonen dass man das HEVC 10bit 422 durchaus mit irdischen Mitteln schneiden kann. Und durchaus mit seit länger verfügbarer Hardware und keiner Weltraumtechnologie.
Jaa, Du weißt ja, die haben halt in den Achtzigern einen der ersten SW Scanner für Macintosh für schlappe 10 Riesen gekauft, da kann man Heute immer noch von partizipieren! :-)



Antwort von klusterdegenerierung:

Kann mir mal jemand sagen, wo ich im Catalyst Browse diese Girodaten Geschichte finde, selbst mit den runtergelandenem A7SIII footage finde ich diese Funktion nirgends und was mir auch seit dem allerersten Tag tierichsch auf die Nüsse geht ist, das die oben bei den Audiospuren nicht gleich einen Muteknopf mit intigriert haben und man stattdessen erst rein klicken muß und dann den Volumeslider ganz nach links schieben muß.

Sony Sony, als Raucher würde ich mir auch ne Zigarette immer mit 2 Feuersteinen anzünden.



Antwort von Mediamind:

Du kannst im Programm sehen, ob Gyrodaten im Clip enthalten sind. Das ist dieses lustige Symbol mit dem angedeutet wackeligen Filmstreifen (zwischen Clipbezeichnung und Typ: Bildschirmfoto 2020-12-19 um 13.51.42.png



Antwort von klusterdegenerierung:

Ah oh, das heißt die sind nicht unbedingt automatisch vorhanden?



Antwort von Axel:

klusterdegenerierung hat geschrieben:
Ah oh, das heißt die sind nicht unbedingt automatisch vorhanden?
Nur
a) wenn entweder kein Steady Shot oder
b) Active Steady Shot

eingeschaltet waren. Außerdem funktioniert es, dem Vernehmen nach, nicht mit allen Objektiven. Mit meinen 3 Sony EF-Mount aber schon.



Antwort von Mediamind:

Mit meinen Sigma Art Linsen geht das auch. Active ist sowieso meine Standardeinstellung. Blöd ist, dass man während des Stabilisierens den Clip in CB rendert. Dadurch verliere ich Qualität. Ich habe schon vergebens nach einem PluginPlugin im Glossar erklärt gesucht, mit dem man innerhalb von FCPX nur den Teil, der sich in der TimelineTimeline im Glossar erklärt befindet stabilisiert. Und noch ein Hinweis: Wenn ich von der SD-Karte in die FCPX Mediathek importiere, sind die Gyrodaten futsch.



Antwort von Axel:

Jemand sollte ein PluginPlugin im Glossar erklärt für Sony-Gyrodaten-Stabilisierung schreiben, damit die Stabilisierung im NLE gerendertgerendert im Glossar erklärt werden kann.



Antwort von klusterdegenerierung:

Wie läuft das denn überhaupt wenn ich das durch geführt habe, schreibt der das in die alte Datei, oder wird eine 2. erstellt und ich hab dann bald alles doppelt?



Antwort von Mantas:

klusterdegenerierung hat geschrieben:
Wie läuft das denn überhaupt wenn ich das durch geführt habe, schreibt der das in die alte Datei, oder wird eine 2. erstellt und ich hab dann bald alles doppelt?
wie du magst, aber lieber nicht überschreiben.



Antwort von Mediamind:

Das ist ja das Blöde, die Datei wird gerendertgerendert im Glossar erklärt und das noch nicht einmal gut.



Antwort von Axel:

Als Ausgabecodec kann auf Macs auch ProResProRes im Glossar erklärt wählen, allerdings nicht "wie Quellmaterial". Insgesamt ist der Hauptvorteil von CB das Auslesen vieler Metadaten. Gyrostabilisierung ist beschissen gelöst.

Unglaublich, wenn man’s recht bedenkt. Die Funktion ist nämlich ansonsten revolutionär. Da zeigt sich mal wieder, dass Sony eine krachledernde Traditionsfirma ist, die im Ganzen keine Ahnung von Benutzerfreundlichkeit hat.



Antwort von Axel:

Mal ‘ne andere Frage: HistogrammHistogramm im Glossar erklärt und Wasserwaage im selben Display, das geht nicht?



Antwort von Funless:

Axel hat geschrieben:
Mal ‘ne andere Frage: HistogrammHistogramm im Glossar erklärt und Wasserwaage im selben Display, das geht nicht?
Das ging bei meinen Sonys die ich hatte noch nie. Oder geht das etwa bei deiner A-Sechstausendnochwas?



Antwort von Axel:

Hätte ja sein können, nachdem ich dauernd irgendwelche mir unbekannten Funktionen entdecke. Die Benutzerdefinierbarkeit der Anzeigen in Display/Sucher ist deutlich ausbaufähig. Nein, bei der A6500 ging das auch nicht, das war aber wegen des eklatanten Rolling Shutters sowieso eine reine Gimbalkamera, also brauchte ich die Wassserwaage nicht.



Antwort von rush:

Axel hat geschrieben:

Unglaublich, wenn man’s recht bedenkt. Die Funktion ist nämlich ansonsten revolutionär. Da zeigt sich mal wieder, dass Sony eine krachledernde Traditionsfirma ist, die im Ganzen keine Ahnung von Benutzerfreundlichkeit hat.
Und das wundert Euch jetzt wirklich?
Ist doch bei Sony seit Jahren so.. Da arbeiten verschiedenste Departments für ein und dasselbe Produkt ohne sich auf gemeinsame Nenner zu verständigen. Das sieht man bei den Fotoapparaten und den Menüstruktruren bis hinauf zu Kameras ala FS7, bei der sich an einem Ort im Menü Settings plötzlich auch auf andere beziehen, diese an der anderen Stelle aber nicht verändert werden können sondern man dann wieder zum ersten Punkt zurück muss etc pp.

Das ist leider Realität bei einer großen Firma wie Sony - gleiches lässt sich aktuell auch noch bei der Produktion eines deutschen Autobauers beobachten der auf Elektromobilität versucht umzustellen und Deadlines nicht gehalten werden können und man stattdessen wissend teilfehlerhafte Softwarestände rausgibt.

Das Problem ist in meinen Augen eher das die Hersteller gefühlt immer ihre eigene Suppe brauen wollen anstatt sich von Beginn an mit potentiellen Verbündeten zusammenzutun... Egal ob das jetzt Apple, avid oder BMD gewesen wäre - bevor solche Kameras auf den Markt kommen sollten die Hersteller von Software bereits die Chance haben entsprechende Tools/Lösungen zu integrieren.
Aber das geht ja scheinbar nicht mal in Vegas...

Unter dem Aspekt ist BMD natürlich gut aufgestellt wenn Hard,- und Software quasi Hand in Hand entwickelt werden. Da darf sich Sony und Co gern was von abschneiden und mehr in diese Richtung denken anstatt immer auf proprietäre Lösungen zu setzen die dann im schlimmsten Fall im Sande verlaufen. Denn ein ungewünschtes Re-Encoding durch eine zusätzliche Software kann ja nicht das zu erreichende Ziel sein.



Antwort von Axel:

rush hat geschrieben:
Denn ein ungewünschtes Re-Encoding durch eine zusätzliche Software kann ja nicht das zu erreichende Ziel sein.
Es wurde entweder in den ersten Tutorials missverständlich dargestellt oder die neuere CB-Version macht es anders. Jedenfalls wendet man "Stabilisieren" an, und ohne Verzögerung kann man die Vorschau abspielen, die je nach Kamerabewegung unterschiedlich stark gecroppt ist - und diesen Crop kann man "manuell" durch einen Slider reduzieren, um sofort zu sehen, ob auch ein geringeres Einzoomen eine hinreichend gute Stabilisierung ergibt. Es erfolgt also keine "Analyse" mehr, sondern eine Direktanwendung, wie ein geglätteter Bewegungspfad anhand der Positionsdaten.

Das klingt banal. So, als wenn irgendein Datenbastler vom Schlage eines Vitali Kiselev (GH2-Hack) keine großen Probleme hätte, ein PluginPlugin im Glossar erklärt zu basteln. Crowdfunding. Sollten ja aufgrund der Lieferengpässe genügend A7Siii's im Umlauf sein.

Leider, leider, ist die A7Siii eine Reviewer-Kamera und eine episch-kinematische Romantiktester-Kamera, die gar keine Stabilisierung braucht, da die Filmer eh nur Herbstlaub-Stilleben damit aufnehmen. Schade.



Antwort von Mantas:

Sony hat die SDKs allen NLEs scheinbar vor einem Jahr schon zugeschickt, es hängt nicht unbedingt an denen. Außer die machen ein eigenes Plug-in.



Antwort von cantsin:

Das ist wahrscheinlich so ein typisches Ding, das 1-2 Jahre braucht, bis es in die Standard-NLEs einzieht und heutige Besitzer der Kamera noch 'early adopter'-Probleme haben.

Würde aber mal schwer davon ausgehen, dass die A7sIII für die nächsten Jahre gewissermaßen das Standard- und Referenzmodell für Video-DSLR- bzw. Spiegelloskameras wird (so wie früher die Canon 5D Mk II).



Antwort von rush:

Hängt in meinen Augen auch ein wenig davon ab wie Sony die A9x/A7Rx und A7 IV Reihe aufstellen wird.

Wenn eine davon auch 10bit 422 @ 4k an die Hand bekommt könnte sich das Blatt schnell wenden und die A7s eher ein Spezialtool bleiben... Nach dem Erscheinen der damaligen A7III griffen viele auch direkt zu diesem Modell anstatt auf die für videozwecke gemünste A7s zu setzen. Zumindest ist das in meinem Umfeld, privat als auch beruflich größtenteils der Fall gewesen.



Antwort von Axel:

@rush
Ja, die A7IV soll angeblich 10bit 422 haben bis 4k 60p, allerdings soll sie ungefähr 2900 € kosten. A9 iii, A7RV, A7IV - sie alle könnten ohne weiteres ja Gyrodaten an Bord kriegen. Zehntausende Videohybrid-Shooter würden dann mit gyrostabilisierbaren Kameras durch die Gegend rennen und - was sonst? - zuhause mit Catalyst Edit (180 € im Jahr) schneiden:

zum Bild


Es gibt eine Testversion, aber ich habe keine Lust, sie zu laden.



Antwort von klusterdegenerierung:

Warum auch, Mr Perfect kennt das Ergebnis ja auch ohne Test!



Antwort von rush:

Axel hat geschrieben:

Es gibt eine Testversion, aber ich habe keine Lust, sie zu laden.
Kannst Du dir in der Tat auch sparen - ich habe es getan und würde mir als zahlender Sony-Kunde (im Falle des Kaufs einer A7sIII) auch noch veräppelt vorkommen.
Nicht nur das man für die Software monatlich ala Adobe löhnen soll - nein viel mehr werden noch nicht einmal die h.265 Files aus der A7sIII von der Software im aktuellen Stand erkannt/importiert. Es gibt noch überhaupt kein passendes 2020er Update für h.265 Inhalte in Catalyst Edit.

Darüber hinaus ruckeln sich auch noch die h.264 10Bit 60p Files bei mir einen ab, während sie in Resolve oder auch dem MPC-HC ja praktisch flüssig laufen.

In dieser Version ist Catalyst Edit wirklich ein schlechter Scherz, von den eher rudimentären Funktionen mal ganz abgesehen... absolut unverständlich und man kann nur hoffen das Sony diese Software nicht im Zusammenhang mit der A7sIII bewirbt.



Antwort von TomStg:

klusterdegenerierung hat geschrieben:
Das man in Catalyst die Thumbansicht nicht nach Datum sortieren kann, ist für mich schon wieder ein Ausschlußkriterium.
Du behauptest das immer wieder, es ist aber immer noch falsch.
Die Sortierung der Clips - zB nach Datum - passiert im Suchen-Modus. Diese Sortierung wird im Anzeigen-Modus übernommen.



Antwort von klusterdegenerierung:

Na Tom, selbst auf Heiligabend auf Krawall gebürstet, traurig traurig.
Das auch Du nicht lesen kannst, denn ich spreche vom Thumbmodus beim browsen, dort werden keine Sortierungsoptionen angezeigt und man muß zu Liste wechseln und dort nach Datum sortieren anwählen.

Wenn man dann allerdings wieder zurück in die Thumbansicht geht, ist die Datumssortierung futsch.
Aber ich nehme mal an, da Sony mir dies in einer Supportmail bestätigt hat, weißt Du es sicherlich besser!

Auch Dir einen schönen Heiligabend ohne Frust und Aggressionen.



Antwort von r.p.television:

Also solange es keine Plugin-Version für die NLEs gibt, ist die Stabilisierung-Funktion von Catalyst-Browse für mich total uninteressant. Wie soll denn da der Workflow sein? Man rendert neue Intermediates? Das ist ja wie vor etwa 10 Jahren mit nem Mac wo man immer ProResProRes im Glossar erklärt batchen musste damit Final Cut auch H.264 schluckt.
Bis dahin schubse ich dann doch lieber - falls überhaupt nötig - den WarpStabi von Premiere drüber. Dank dem kaum vorhandenen RS funktioniert das nun auch sehr gut. Schwierig ist eigentlich nur noch wenn man versucht einen Talking Head der close im Bild ist zu stabilisieren, weil er versucht das Gesicht zu stabilisieren und der Bildrand dann umherwobbelt. Sowas kriegt man aber auch mit Masken hin falls unbedingt erforderlich. Und eben alles onBoard ohne Zwischenrendern. Auf sowas hätte ich in 2020 keinen Bock mehr.



Antwort von TomStg:

klusterdegenerierung hat geschrieben:
Das auch Du nicht lesen kannst, denn ich spreche vom Thumbmodus beim browsen, dort werden keine Sortierungsoptionen angezeigt und man muß zu Liste wechseln und dort nach Datum sortieren anwählen.

Wenn man dann allerdings wieder zurück in die Thumbansicht geht, ist die Datumssortierung futsch.
Aber ich nehme mal an, da Sony mir dies in einer Supportmail bestätigt hat, weißt Du es sicherlich besser!
Sorry, tut mir leid.
Ich konnte nicht wissen, dass es für Dich eine Zumutung ist, die Clips in den beiden Ansichten Suchen/Anzeigen nur mit den kleinen Thumbs zu sortieren und auszuwählen.



Antwort von klusterdegenerierung:

TomStg hat geschrieben:
Sorry, tut mir leid.
Ich konnte nicht wissen, dass es für Dich eine Zumutung ist, die Clips in den beiden Ansichten Suchen/Anzeigen nur mit den kleinen Thumbs zu sortieren und auszuwählen.
Sorry, tut mir leid.
Ich konnte nicht wissen, das andere Arbeitsansätze für Dich eine Zumutung sind.

Ich drücke Dir ganz fest die Daumen, das sich niemand in Deiner Familie oder Freundeskreis befindet, der anders denkt als Du.
Frohes Fest.



Antwort von Mediamind:

r.p.television hat geschrieben:
Also solange es keine Plugin-Version für die NLEs gibt, ist die Stabilisierung-Funktion von Catalyst-Browse für mich total uninteressant. Wie soll denn da der Workflow sein?
Sehe ich ähnlich. ABER....
Du hast einen Shot mit Steady Shot Active gefilmt, Wackler sind entstanden und Warp und Co (Ich nutze Lock an Load) führen zu keinem schönen Ergebnis, dann hast Du die zusätzliche Möglichkeit den Clip in CB zu stabilisieren. Das kann einen durchaus retten.
Im letzen vorletzten Jahr hatte ich eine Szene am Rande einer Trauung, die vom Kunden unbedingt gewünscht war und sie war verwackelt. Mit keinem meiner Möglichkeiten wurde das Ergebnis gut, mit der Gyrostabilisierung wäre das zu retten gewesen. Ausgeliefert habe ich dann ein für mich eigentlich nicht akzeptables Resultat. Waren zwar nur wenige Sekunden, hat mich aber total gestresst, es nicht besser hin zu bekommen. Solange ich kein PluginPlugin im Glossar erklärt habe, ist das für mich eine Absicherung für genau diese Fälle.
Wobei man berücksichtigen muss, dass der ShutterShutter im Glossar erklärt einem das Ergebnis ebenfalls verhageln kann. Wenn die Korrektur zu stark ist, schmiert das Bild bei einem ShutterShutter im Glossar erklärt von 180 Grad.



Antwort von Axel:


An den Weihnachtsfeiertagen habe ich jetzt zum ersten Mal im Stile eines Hochzeitsvideoten, der ich war, konsistent in Lowlight gefilmt, nicht nur getestet, obwohl der ganze Kram auch ein Test war. Die Familie filmte das üppige Kerzenlicht-Gelage auch mit Smartphones. In ISO 12800 ist es schon eine Lowlight-Kamera. Vor allem, weil die Farben nicht verkacken und weil man genügend Dynamik hat, um bei Kerzenlicht aufzunehmen, ohne dass die Flamme brutal clippt. Auf den Smartphone-Displays sahen deren Videos zunächst ganz brauchbar aus, aber die Farben und die ArtefakteArtefakte im Glossar erklärt waren doch im Direktvergleich etliche Klassen schlechter.

Andere Hoch-ISOs produzieren, wenn man genauer hinsieht (was ich natürlich tue) merkwürdig strukturierte Pixelklumpen-Artefakte. Brauchbar nur als Notbehelf und wenn man die verrauschten Bereiche in der Post crushen kann.

Ich testete (und teste noch) mehrere Farbraum-Konvertierungs-Workflows mit Resolve, auf derselben 2-Minuten-Sequenz. Spannend ist z.B. die Nutzung der neuen HDR-Farbkreise:


Auch, etwas tiefer gehend, Abwedeln und Nachbelichten mittels Parallel-Nodes und ausgeschaltetem Luma-Mix als bessere Alternative zu grobschlächtigen curves:


Ein sehr mächtiges und Respekt einflößendes Programm. Ein Colorist werde ich wohl nie, aber jetzt, mit der A7Siii, macht das Bearbeiten einfach Spaß.



Antwort von Funless:

No offense, doch so langsam scheint (wie aktuell auch bei einem Virus zu sehen) der next-camera-disorder in einen best-color-disorder zu mutieren.



Antwort von roki100:

Axel hat geschrieben:
Ein sehr mächtiges und Respekt einflößendes Programm. Ein Colorist werde ich wohl nie, aber jetzt, mit der A7Siii, macht das Bearbeiten einfach Spaß.
Bald kommt von Dir cinematische Aufnahmen Sony like Arri bei YouTube oder bei Vimeo wegen bessere Qualität ;)



Antwort von klusterdegenerierung:

Etwas lustig in dem Zusammenhang ist aber schon, das mitmal viele User 13K Iso & mehr brauchen. :-)
Bevor dies (möglich) war, ist man nicht auf diese Idee gekommen und wollte/mußte meißt nicht über 6400 gehen, was für amtliche Aufnahmen eh schon etwas entfernt von der Realität war.

Doch nun wo man die Möglichkeiten bekommt, scheint es auch die Bedürfnisse zu geben, womit auch die ersten quängeleien los gehen.
Wenn ich schon eine Cam habe, die es tatsächlich schafft auf 13K Ebene wirklich nutzbare Ergebnisse zu erzielen,
dann stellt sich mir wirklich die Frage warum man da noch über höhere und damit schlechtere Bedingungen philosophiert.

Jahre lang Pommes rotweiß gegessen und einmal a la carte und schon sind die Pommes für immer vergessen. ;-))



Antwort von roki100:

Mit Euch, die Sony-Abteilung, ist gar nicht lustig, sondern alles so Ernst... ;)



Antwort von klusterdegenerierung:

roki100 hat geschrieben:
Mit Euch, die Sony-Abteilung, ist gar nicht lustig, sondern alles so Ernst... ;)
Wir habens halt nicht so gut wie ihr, wo man brauchbare Aufnahmen nur bis 800Iso schafft, aber dafür internes Raw kann. :-)



Antwort von roki100:

wir, die Abteilung Fairchild, filmen nicht mit Nachtsichtgerät im dunkel, sondern tagsüber mit cinema Kamera... ;)



Antwort von Axel:

Funless hat geschrieben:
No offense, doch so langsam scheint (wie aktuell auch bei einem Virus zu sehen) der next-camera-disorder in einen best-color-disorder zu mutieren.
Warum das mMn nicht vergleichbar ist: Resolve ist kostenlos, und der einfachste Workflow, weil er nur eine einmalige Projekt-Voreinstellung benötigt (ACES) hebt einen mit einem Schlag meilenweit über woanders verbrochene Look-Mätzchen hinaus, weil man mit einem hochglanzpoliert aussehendem Bild beginnt.

Jede darauf noch aufbauende Verfeinerung ist eine selbstgenügsame, harmlose Beschäftigung wie Schals Stricken oder Flaschenschiffe Bauen. Kein durch seine eigene innere Natur bedingt unerreichbares Ziel wie das Streben nach einer noch nicht existenten Kamera oder das Sammeln von Gimbal-Pümpeln.

Eine Gemeinsamkeit gibt's für den kleinen Träumer trotzdem. Es kommt bei einer komplexen Bearbeitung (für mich) unweigerlich der Punkt, an dem mir klar wird, dass ich nur noch Murks mache. Es ist also wichtig, sich einen Workflow anzueignen, der vielleicht bescheiden ist, aber dessen Ziel zumindest in Sicht und erreichbar ist.
roki100 hat geschrieben:
Bald kommt von Dir cinematische Aufnahmen Sony like Arri bei YouTube oder bei Vimeo wegen bessere Qualität ;)
Ist alles nur Spaß, Hobby. Ich spiele rum, und das ständig. GH2- und Pocket-HD-Niveau. Die A6500 war mir zu bockig.



Antwort von roki100:

@Axel
ist doch ein schönes Hobby. Ich filme meinen kleinen Sohn, Familie usw. Habe das einmal bei einem Kollegen gesehen der seine Familie filmte und das ganze professionell wie ein (dokumentarische) Film...Der cinematische Look (war wohl orange und teal) hat mich sofort infiziert... Ich dachte früher, eine Kamera (z.B. Sony A6000) reicht aus...habe mich aber getäuscht. Empfohlen wurde mir dann eine RAW Kamera. Heute weiß ich aber, dass auch 10Bit h264/5 oder ProResProRes im Glossar erklärt ausreicht.



Antwort von r.p.television:

Mediamind hat geschrieben:
r.p.television hat geschrieben:
Also solange es keine Plugin-Version für die NLEs gibt, ist die Stabilisierung-Funktion von Catalyst-Browse für mich total uninteressant. Wie soll denn da der Workflow sein?
Sehe ich ähnlich. ABER....
Du hast einen Shot mit Steady Shot Active gefilmt, Wackler sind entstanden und Warp und Co (Ich nutze Lock an Load) führen zu keinem schönen Ergebnis, dann hast Du die zusätzliche Möglichkeit den Clip in CB zu stabilisieren. Das kann einen durchaus retten.
Im letzen vorletzten Jahr hatte ich eine Szene am Rande einer Trauung, die vom Kunden unbedingt gewünscht war und sie war verwackelt. Mit keinem meiner Möglichkeiten wurde das Ergebnis gut, mit der Gyrostabilisierung wäre das zu retten gewesen. Ausgeliefert habe ich dann ein für mich eigentlich nicht akzeptables Resultat. Waren zwar nur wenige Sekunden, hat mich aber total gestresst, es nicht besser hin zu bekommen. Solange ich kein PluginPlugin im Glossar erklärt habe, ist das für mich eine Absicherung für genau diese Fälle.
Wobei man berücksichtigen muss, dass der ShutterShutter im Glossar erklärt einem das Ergebnis ebenfalls verhageln kann. Wenn die Korrektur zu stark ist, schmiert das Bild bei einem ShutterShutter im Glossar erklärt von 180 Grad.
Ich nutze für sehr spezielle Fälle (also wo beispielsweise Interviews verwackelt sind) den Stabilzer von Boris Continuum. Dort kann man beispielsweise den Rand hinter der Person selektieren, damit der Stabilizer nicht versucht das logischerweise wackelnde Gesicht zu stabilisieren. Das ist zwar ein wenig doof weil hier keine StapelverarbeitungStapelverarbeitung im Glossar erklärt bei getrennten Clips geht sondern immer nur einzeln, rettet dann aber die Footage und der Clip. Das geht ja beim bordeigenen Werkzeug in Premiere nicht. Ich weiss nicht welche Stabilizer es noch gibt die sowas können, aber hier geht das direkt im NLE ohne irgendwelche Intermediates. Und seitdem die A7s iii mit so wenig RS aufwartet werden die Ergebnisse auch sehr viel besser.



Antwort von Axel:

r.p.television hat geschrieben:
Ich nutze für sehr spezielle Fälle (also wo beispielsweise Interviews verwackelt sind) den Stabilzer von Boris Continuum.
Da für mich wackelfreie Aufnahmen wichtig sind, auch bei Hand/Schulterkamera, brauche ich Software-Stabilizer eigentlich nie. Schön wäre natürlich eine sorglose Handkamera, die aussieht wie ein (aber ungewohnt dynamischer) Gimbalshot, wie hier zu Anfang:


Brandon Li sagt, man kann fast perfekte Gimbalshots, auch mit proportionalem ShutterShutter im Glossar erklärt, zu 100% perfekten Aufnahmen machen durch Gyro. Deshalb schon schade, dass es kein NLE-Rendern gibt oder wenigstens Catalyst-Export in einer von mir voreingestellten Qualität.

Aber wer weiß? Vielleicht mangelt es genau diesen Aufnahmen an Wabi Sabi. Vielleicht ist es mit Kameraführung ähnlich wie mit der perfekten QuantisierungQuantisierung im Glossar erklärt in modernen Musikprogrammen. Ich sah kürzlich die Beschwerde eines Musikers, aller modernen Popmusik fehle die Seele wegen des mathematisch perfekten Timings.



Antwort von r.p.television:

Wir werden je nach Anspruch an wackelfreies Delivery noch lange Postpro-Stabilisierung brauchen. Wenn beispielsweise BTS von einem aufgeregten Assi dazu kommt. Oder man gerade nur halb fertig mit dem Setup ist und der Interviewpartner plötzlich weg muss und man mit einem 85mm aus der Hand filmt, zuvor aber schnell 2 Stockwerke hochgerannt ist. Es ist leider immer wieder so dass man mit ungünstigen Bedingungen kämpfen muss. Umso besser wenn interne Stabilisatoren, geringer RS und gute Postpro Stabis zusammenarbeiten. Die Ergebnisse mit der A7s iii sind jedenfalls um Lichtjahre besser als beispielsweise mit einer A7iii. Wenn man die Footage einer A7iii stabilisiert sorgt das bereits bei nur geringem Einzoomen für Wackelpudding-Bilder.



Antwort von klusterdegenerierung:

Und wenn dann alles pefekt wackelfrei ist gibt es das Wackel Pro PluginPlugin im Glossar erklärt und tutos wie man seinen Gimbal so einstellt, das er unruhig läuft bzw man schaltet ihn ab und mit der 12K Ursa nimmt man in 720p auf, damit es besser rüber kommt.



Antwort von r.p.television:

klusterdegenerierung hat geschrieben:
Und wenn dann alles pefekt wackelfrei ist gibt es das Wackel Pro PluginPlugin im Glossar erklärt und tutos wie man seinen Gimbal so einstellt, das er unruhig läuft bzw man schaltet ihn ab und mit der 12K Ursa nimmt man in 720p auf, damit es besser rüber kommt.
Ja, für die Douchebag-Generation durchaus denkbar. Wenn da ein Bild für 50 Frames unverwackelt und ungeschnitten ist werden sofort die Handys gezückt um sein Instagram-Profil zu checken.
Interessant finde ich auch wie inflationär nun die VHS-Look-Plugins benutzt werden. Was ich teilweise noch im Rotoscoping-Verfahren aus kaputter Footage rausgemalt habe wird nun künstlich eingefügt.



Antwort von Axel:

Axel hat geschrieben:
Mediamind hat geschrieben:
Neben der einstellbaren Geschwindigkeit bei Wechsel der Farbtemperatur im Modus Auto WB habe ich die 3 Speicherplätze für Custom Settings als hilfreich empfunden. Nicht weil es sie gibt (die Konkurrenz hat das auch im Portfolio), sondern die Kamera gibt die Farbtemperatur nach einer Spotmessung als konkreten Wert aus. Meine anderen Kameras verschweigen mir, welche Farbtemperatur sie auf der Graukarte sehen. Das macht beim Multicamshoot die Sache für mich einfacher. Gerade bei Mischlicht kann das eine nette Hilfe sein. Den Messwert übernehme ich dann für die anderen Kameras. Feine Sache.

Wenn ich im Cam-Memory-Modus bin, steht mir Custom WB leider nicht zur Verfügung. Ich muss in den Movie-Modus wechseln. Dort wird mir zwar, wie du sagst, die momentane Farbtemperatur in Hunderterschritten angezeigt (aktuell 6100°K). Wenn ich aber wieder in 1,2 oder 3 bin, ist diese Speicherung weg, und ich müsste manuell über "K" gehen.

Warum bleibe ich also nicht gleich im Movie-Modus?

Nun ja, das tu ich auch. Es ist nur ein bisschen schade, weil es schon 20-30 Sekunden kostet, jedesmal nach dem Einschalten zu checken, ob alle Parameter passen.


Gerade gesehen. Leuchtet ein. Muss ich bei Tag mal probieren.



Antwort von Axel:

Genialer Workaround. Ich brauche natürlich immer eine Graukarte, das muss ich mir mal angewöhnen. Ist mit flexibler Blendenautomatik-Toggle-Taste (ähnliches Prinzip), die ich bereits auf der AEL-Taste liegen habe, doppelt wichtig. Flugs zu Amazon, dem großen Pestilenz-Gewinnler! AWB Lock Toggle lege ich auf C4. Da hatte ich bis jetzt den Default, nämlich "In-Camera Guide". Um dessen Wert schätzen zu lernen und das Funktionsprinzip nachzuvollziehen genügt ein Beispiel. Drückt man bei gewähltem "Spot Metering Point" auf die Guide Taste, erscheint eine Tafel: Sets Spot Metering Point.

Einziger Nachteil ist, dass ich nicht sehe, welcher Kelvin-Wert gewählt wurde, wie Mediamind das gelobt hat.

Aber kein Problem, da der AWB Lock nur aktiv ist, wenn ich auch in AWB bin. Und das stell ich halt im Movie Modus rasch um.



Antwort von Mediamind:

Gar nicht schlecht. Damit hat man seine WB schnell eingestellt. Ist auf jeden Fall schneller, als wenn den "normalen" Weg über Messfeld und speichern wähle. Wobei ich bei der A7sIII die Auto WB zu 80% mittlerweile nutze. Die schockfreie Anpassung der WB ist ein guter Weg, bei Mischlicht zu arbeiten. Bei Kunstlicht wähle ich konservativ die WB nach wie vor manuell selber.



Antwort von Mediamind:

Axel hat geschrieben:
r.p.television hat geschrieben:
Ich nutze für sehr spezielle Fälle (also wo beispielsweise Interviews verwackelt sind) den Stabilzer von Boris Continuum.
Da für mich wackelfreie Aufnahmen wichtig sind, auch bei Hand/Schulterkamera, brauche ich Software-Stabilizer eigentlich nie. Schön wäre natürlich eine sorglose Handkamera, die aussieht wie ein (aber ungewohnt dynamischer) Gimbalshot, wie hier zu Anfang:


Brandon Li sagt, man kann fast perfekte Gimbalshots, auch mit proportionalem ShutterShutter im Glossar erklärt, zu 100% perfekten Aufnahmen machen durch Gyro. Deshalb schon schade, dass es kein NLE-Rendern gibt oder wenigstens Catalyst-Export in einer von mir voreingestellten Qualität.

Aber wer weiß? Vielleicht mangelt es genau diesen Aufnahmen an Wabi Sabi. Vielleicht ist es mit Kameraführung ähnlich wie mit der perfekten QuantisierungQuantisierung im Glossar erklärt in modernen Musikprogrammen. Ich sah kürzlich die Beschwerde eines Musikers, aller modernen Popmusik fehle die Seele wegen des mathematisch perfekten Timings.
Hatte ich an andere Stelle schon erwähnt: Mit der neuen Version von CB kann man die Active Stabilisierung mit Gyro in der Post nutzen. Sowohl Brandon L. als auch der hier verlinkte Beitrag geben explizit an, man müsse alle Stabilisierungen ausschalten. Ich weiß allerdings nicht, wie sich das bei Active + Objektivstabilisierung gestaltet. Das könnte gegeneinander arbeiten. Da ich aber zu 90% das Sigma Art 24-70 ohne vorhandene objektivseitige Stabilisierung nutze, ist das für mich nur hypothetisch. Cool dabei ist, dass man dann wirklich die Clips stabilisiert, die es nötig haben. Das macht die Geschichte handlicher.



Antwort von Mediamind:

Was ich noch nicht hinbekomme, ggf. ja auch gar nicht möglich ist:
Wenn ich eine Menschengruppe habe wird auf eine beliebige Person scharfgestellt. Die anderen Personen werde mit einem grauen Kasten als Gesichter erkannt. Kann ich sinnvoll und schnell zwischen den einzelnen Personen wechseln ohne über Touch AF zu gehen? Bei der Nikon ist diese Funktion ganz gut gelöst, bei der A7SIII habe ich hierzu noch nichts gefunden.



Antwort von r.p.television:

Die Funktion der Gyrodaten-Stabilisierung mag zukunftsweisend sein. Aber solange das nur extern über Prerendering aus CB heraus funktioniert ist das für mich uninteressant. Sowas muss direkt im NLE funktionieren.



Antwort von Axel:

Mediamind hat geschrieben:
Gar nicht schlecht. Damit hat man seine WB schnell eingestellt. Ist auf jeden Fall schneller, als wenn den "normalen" Weg über Messfeld und speichern wähle. Wobei ich bei der A7sIII die Auto WB zu 80% mittlerweile nutze. Die schockfreie Anpassung der WB ist ein guter Weg, bei Mischlicht zu arbeiten. Bei Kunstlicht wähle ich konservativ die WB nach wie vor manuell selber.
Kommt sehr auf die Situation an. Ich dachte gleich zu Anfang, hey, AWB ist bei dieser Kamera aber echt super, aber dann gab's schon etliche dadurch unbrauchbar gemachte Shots.

Meine augenblickliche Einschätzung zu Automatik-Funktionen bei dem, was ich selbst als eine Hobby-Cinema-Kamera betreibe ist, dass man blöd wäre, AF und AE nicht zu nutzen. AE lässt sich bei bewegter Kamera auch durch ShutterShutter im Glossar erklärt Priority nutzen. Dabei geht der proportionale Motion BlurBlur im Glossar erklärt flöten, weswegen die Methode von Puristen verachtet wird (während Brandon Li sie schon immer sehr sorglos benutzte, was sogar mir, dem "Kadenz-Blinden", auffiel). Aber die Anpassung der Belichtungszeit funktioniert komplett stufenlos, im Gegensatz zu Blendenautomatik ("A"). Wenn man den Verlust der Bewegungsunschärfe mal kurz außen vor lässt, ist das mindestens so gut wie der stufenlose Automatik-ND der FX6.

Aber es gibt für tatsächlich störende Strobo-Effekte durch diese AE-Methode in Resolve gleich zwei Abhilfen: in Studio den "Motion Blur", und in der freien Version dasselbe in Fusion, keyframebar.

Die dritte Methode zur automatischen Belichtungsanpassung, Auto ISO, habe ich bei der A6500 manchmal verwendet, aber jetzt nicht mehr. 640 und 128000, den Rest muss ich anders hinkriegen.

Die vierte Methode, Vari-ND oder fixen ND, möchte ich künftig nicht mehr benutzen. Filter vermindern die Bildqualität.

Und das kann ich in der Post besser. Wie bereits woanders geschrieben, kaufte ich mir, wieder Brandon Li folgend, die Tiffen BPM 1/8 und 1/4. Ich stellte fest, dass mit diesen beiden Filtern noch immer keine hinreichende Kontrolle möglich ist, wieviel Weichzeichnung bzw. Rolloff ich im Bild haben möchte. Dass ich aber mit verschiedenen Metoden genau das in Resolve sehr präzise kann. Mediamind, du benutzt ja m.W. nur FCP? Dafür gibt es ein kostenloses PluginPlugin im Glossar erklärt namens Better Glow, was das ziemlich vereinfacht.

Und obwohl die A7Siii eine gute, kompakte Gimbalkamera ist, fällt mir mit Active Shot auch normale Handkamera nicht schwer, bzw. gefällt mir überwiegend besser. Mittlerweile nutze ich dazu doch den smallrig Cage, der die Kamera durchaus noch etwas griffiger macht und auch Vorteile auf dem Gimbal hat.



Antwort von Mediamind:

Den Gimbal nutze ich auch nur, wenn ich selber in Bewegung bin. Ansonsten filme ich aus der Hand. Zum Thema ND gibt es ein interessantes Produkt, den Revo Ring, welches ich mir noch zulegen werde:

https://www.youtube.com/watch?v=ng5cWYzPH7Y

Das würde für mich eine Menge Probleme lösen. Die Gläser sollen hochwertig sein und von Schott stammen. Ich habe einige 1.4 er Optiken, bei denen wird es absurd, wenn ich die im Sommer ohne ND nutze.
Die variable Belichtungszeit würde ich nur im Außenbereich ohne Kunstlicht wagen, ich habe sowieso schon immer mit billigen LEDs und anderen Garstigkeiten an den Locations zu kämpfen.

Und ja: Ich nutze ausschließlich FCPX. Das PluginPlugin im Glossar erklärt habe ich mir gerade einmal geladen. Die Funktion erschliesst sich mir spontan noch nicht. Schaue ich mir später einmal genauer an.



Antwort von Alex T:

Mediamind hat geschrieben:
Die variable Belichtungszeit würde ich nur im Außenbereich ohne Kunstlicht wagen,
Wieso sollte Kunstlicht Probleme bereiten? Oder was meinst du genau?



Antwort von rush:

Xume ist halt bei Verwendung vieler Optiken recht teuer wenn man alle Gläser und Filter entsprechend ausstatten will - und es ändert nichts an der Tatsache weiterhin einen Filter an vorderster Front zu haben, sei er noch so gut. Im WW muss man zudem aufpassen da durch den Magneten die Filter etwas weiter vorstehen als bei einer reinen slim schraublösung.

Aber berichte gern wenn du darauf umsteigen solltest - ich hatte mich seinerzeit auch damit befasst aber bin zu einer anderen Lösung gekommen, die jedoch nicht KB tauglich ist...



Antwort von Mediamind:

"Alex T" hat geschrieben:
Mediamind hat geschrieben:
Die variable Belichtungszeit würde ich nur im Außenbereich ohne Kunstlicht wagen,
Wieso sollte Kunstlicht Probleme bereiten? Oder was meinst du genau?
Hallo Alex, je nach ShutterShutter im Glossar erklärt bekommst Du Flickerprobleme. Bei einem ShutterShutter im Glossar erklärt von z.B. 1/60 kann man das schön bei üblicher Beleuchtung sehen. Ich habe das vor Kurzem einmal für meine Hausbeleuchtung durchprobiert. Das Flackern der Lampen ist in Teilen sehr spezifisch. Bei einem ShutterShutter im Glossar erklärt von 1/50 hat man die wenigsten Probleme. Chinakracherbeleuchtungen mal außen vor.
@ Rush: Bei dem verlinkten Beitrag wird der RevoRing ebenfalls behandelt. Dieser zeichnet sich durch einen Schnellverschluss und einer Kombination aus hochwertigem variablen ND und Polfilter aus. Man kann ihn mit einem Griff montieren/demontieren und auf unterschiedliche Durchmesser (eine Version umfasst den für mich wichtigen Bereich von 67-82 mm) mit einem Dreh adaptieren und gleichzeitig sehr fest montieren. Kai W und Philipp Bloom waren sehr hiervon angetan:
https://www.youtube.com/watch?v=9vJIrIyokjI

Mit meiner Kamera hätte ich dieses Kunststückchen nicht gewagt (Min 1:05).

https://www.youtube.com/watch?v=alWnyf1-w5o



Antwort von Alex T:

Mediamind hat geschrieben:
Hallo Alex, je nach ShutterShutter im Glossar erklärt bekommst Du Flickerprobleme. Bei einem ShutterShutter im Glossar erklärt von z.B. 1/60 kann man das schön bei üblicher Beleuchtung sehen. Ich habe das vor Kurzem einmal für meine Hausbeleuchtung durchprobiert. Das Flackern der Lampen ist in Teilen sehr spezifisch. Bei einem ShutterShutter im Glossar erklärt von 1/50 hat man die wenigsten Probleme. Chinakracherbeleuchtungen mal außen vor.
Dann würde ich das Licht in deinem Fall anders bezeichnen. Kunstlicht bezeichnet in unserer Branche eher warmes Licht um 3200K. Grob beschrieben wird dein geschildertes Flickern von einer Interferenz zwischen Lichtfrequenz und Belichtungszeit erzeugt. Hat aber nix mit dem Begriff Kunstlicht zu tun.



Antwort von Mediamind:

Ok, dann ist das in unserer Branche eben so. Man lernt doch nie aus. Dann nennen wir es eben nicht Kunstlicht, sondern eben anders. Z.B. nicht natürliches Licht, welches aber kein Kunstlicht ist. Ist ein wenig sperrig aber wenn es denn in unserer Branche so ist, dann sei ei drumm. Ich kürze es einfach als NNLKK ab, dann haben wir eine brauchbare Bezeichnung. Wenn ich meiner Assistentin zurufe: "hej, Vorsicht wir haben erhebliche Anteile an NNLKK" wirkt das irgendwie auch seriöser.
Spaß beiseite (bitte nicht gefoppt fühlen), bei einer Hochzeit in Recklinghausen hatte ich es mit MASSEN an LED zu tun, die in allen Bereichen Interferenzen zu bieten hatten. Bunt und vielfältig. Mit einem ShutterShutter im Glossar erklärt von 1/50 war das schon schlimm, bei anderen Verschlusszeiten wurde es allerdings richtig unangenehm. von daher setze ich auch bei der A7SIII auf ND, statt auf Variationen der Verschlusszeit.



Antwort von rush:

Ich würde auch soweit es geht versuchen eine Verschlusszeiten-Automatik zu meiden - insbesondere wenn das rückwertige Display möglicherweise die einzige Kontrollinstanz ist... Auf diesen Winz-Displays ist leichtes Flickern je nach Umgebung nicht immer sofort ersichtlich - im Schnitt dann umso eher.



Antwort von Axel:

Die Situationen, in denen ich einen ND im Innenraum, Kunst- oder Tageslicht, verwendet habe, kann ich an einer Hand abzählen. Also ich meinte natürlich Außen, Tag. Das sind die Situationen, in denen die Verschlusszeit-Frequenz oder auch die Bildfrequenz (PAL/NTSC) gar keine Rolle spielt, weil die Lichtquellen nicht wechselstromabhängig sind. Innen ist es selten zu hell.

Exkurs über Step-up-Ringe, magnetische Filter, Sonnenblenden, Matteboxen und Co:
XUME ist ein elegantes System, und ich habe es, inklusive der Objektivkappen. Es ist für mehrere Objektive und Filter gerechnet sehr teuer. Eine weitere Milchmädchenrechnung und ein überall verbreiteter Mythos ist, dass man alle seine Objektive mit Adapterringen an das mit dem größten Filterdurchmesser anpasst und einen großen Filter kauft (eventuell den PolarPro Peter McKinnon Edition für 300 €? Das erinnert mich an die Currywurst mit echtem Blattgold gegen Aufpreis, eine typische Düsseldorfer Dekadenz). Ein typisches Nicht-Cine-Set reicht von 52mm bis 77mm oder sogar 82mm. Wie oben beschrieben, wenn das kleinste davon weitwinklig ist, wird's schwierig. Zudem brauchen die meisten modernen mehrfachvergüteten Objektive nicht mehr zwingend eine Sonnenblende. Aber sie brauchen sie spätestens dann, wenn Zusatzglas davor kommt. Mit den Step-Up-Ringen passen dann natürlich die speziell für die BrennweiteBrennweite im Glossar erklärt berechneten Originale nicht mehr, sodass man zusätzlich zu den Ringen, Magneten und Filtern (und Revo ist auch Glas) noch zusätzlich mehrere 77 oder 82mm Sonnenblenden (Tulpe, Kniffelbecher) braucht. Zum Schrauben oder magnetisch? Pfff. Da ist dann irgendwann der Gedanke einleuchtend, dass man gleich Nägel mit Köpfen macht und eine Mattebox kauft.

Aber wozu? Damit man sich mit der extra Windschutzscheibe nicht unerwünschte Reflexe einfängt und damit schnelle Bewegungen im Freien nicht allesamt aussehen wie die der Zombies aus 28 Days Later?

Ohne Filter (und den ganzen anderen Lakritz-Schmarren, da muss ich bei dem schwarzen Zeug immer dran denken) kann man weise lächelnd die original-Sonnenblende davor bajonetten. Oder sogar darauf verzichten, weil einen ein leichter Reflex gar nicht stört. Dann sieht man sich's zuhause an, merkt, dass in etwa 10-20% der Aufnahmen ein zu kurzer ShutterShutter im Glossar erklärt dem kritischen Pixelpeeper-Auge überhaupt auffällt. Und dann wendet man ReelSmartMotionBlur bzw. verwandte Methoden an. Ich weiß, es gibt sie für Apple (als PluginPlugin im Glossar erklärt oder selbstgebaut via Motion), Adobe (mindestens in AAE) und, wie gesagt, in Resolve Studio und Free. Wenn man sich Brandon Lis Passion of Andalucía ansieht, dann gibt es darin einige Strobo-Schwenks. Das kümmert offenbar ihn und die 37.000 Youtube-Bejubler und weitere 865.000 mutmaßlich wohlwollende Viewer nicht sonderlich. Bevor man sich durch allzu ängstliche Beachtung der Filmlook-Merkmale (darum geht es hier, nicht wahr?) selbst ausbremst und durch Tonnen von teurem und fummeligem Zubehör-Geraffel eine dynamische Aufnahme nicht mehr zustande kommt, sollte man mal einen Moment überlegen.

Was tu ich hier gerade? Propagiere ich "fix it in post"?

Da hier auch das 50Hz-Flackern bei ungünstigem ShutterShutter im Glossar erklärt und bei chinesischen LEDs erwähnt wurde: auch da gibt es in Resolve einen Filter dagegen. Ich habe diesen mal ausprobiert und war sehr positiv überrascht.

Selbstverständlich würde ich bei Kunstlicht lieber 25p und 1/50 ShutterShutter im Glossar erklärt nehmen, also keinen Automatik-Shutter. Aber eine der Nachteile der Sony A7Siii ist nun einmal, dass sich der ShutterShutter im Glossar erklärt gar nicht an die Bildrate koppeln lässt, wie in dedizierten Cinema-Kameras.

Und hier finde ich es interessant, dass gewissermaßen, in jeder Situation, in der die A7Siii ein vermeintliches Problem hat, Resolve eine Abhilfe hat. Videomäßig scharf aussehende Bilder? Glow. Flache SLog-Profile? Eine ganze Reihe guter Workflows. Nur 1080 bei 8- bis 10-facher Zeitlupe? Superscale. Rauschfilter, Motionblur, De-Flicker. Ich schluckte zuerst, als das kostenlose Resolve meine A7Siii-Clips nicht importieren wollte (ich schneide in FCP, aber ich korrigiere in Resolve), aber mittlerweile finde ich die 200 €, die ich hier im Forum für die Lizenz bezahlt habe, läppisch. Genau wie ich nicht finde, dass die A7Siii teuer ist für das, was sie kann.



Antwort von Mediamind:

Flicker Free hatte ich bei der Recklinghauser Hochzeit auch bereits in Erwägung gezogen. Da es aber kein gut bnezahlter Job war, habe ich dann doch nicht die 149 USD investiert. Überigens, der YTer hat ebenfalls die vorhandene Beleuchtung als Kunstlicht bezeichnet (der Stachel sitzt tief :-)
Axel, Du hast ja Recht, man kann für ein bißchen mehr Motion BlurBlur im Glossar erklärt den Aufwand ins Absurde ausufern lassen. Bei vielen Verwendungen sieht die Kundschaft den Unterschied gar nicht. Bei Drohne z.B. mache ich mir keine Köpfe mehr, ob ich die 180 Grad Regel einhalte oder nicht. Ich gehe da zwar nicht auf 1/1000 ShutterShutter im Glossar erklärt, die NDs verwende ich aber eher großzügig geschätzt und nicht mach der reinen Lehre des heilgen 1/50-stels.
Beim Wechsel des Eye-AF von einer zu einer anderen Person innerhalb einer Gruppe bin ich weiter. Entweder Touch AF oder den Focusrahmen begrenzen. Ein Wechsel von Person zu Person über einen Funktionskey geht leider nicht. Da ich mit dem Sucher arbeite, ist das für mich eher unpraktisch. Ich arbeite aus der Hand nicht gerne mit dem Backsidemonitor.



Antwort von klusterdegenerierung:

Resolve hat ein eigenes sehr gut funktionierendes Flicker free, da lohnt das PluginPlugin im Glossar erklärt kaum.



Antwort von Mediamind:

Resolve ist ohne Frage ein gutes Programm. Ich scheue nur den Spagat zwischen verschiedenen NLE. Bei FCPX fühle ich mich über die Jahre hinweg immer sicherer und entdecke trotzdem immer wieder für mich neue Möglichkeiten. In Summe habe ich darüber hinaus eine Menge Geld in Plugins investiert. Ich muss mich selbst disziplinieren und nicht auf jeden Zug aufspringen, ansonsten kommt man am Ende nirgend an. Bild, Ton, Licht, Drohne, Buchhaltung, Rechtliches, ... sind schon ein sooo weites Feld. 2021 will ich die Dinge unkomplizierter gestalten. Ich bin eindeutig ein Gearboy. Ich schleppe immer zu viel Zeugs mit mir herum. Besser wird das Ergebnis auch mit dem 3. Ersatzrecorder und der 10. Optik nicht. Eher im Gegenteil, es hält mich ab zu Filmen. Seit der A7SIII nutze ich zu 90% nur noch diese Kamera und nur noch das 24-70 Art. Dann kommt das 85 mm f:1.4 und selten das 70-200.
Das deckt sich mit der Erfahrung von diesem YTer, man braucht nicht mehr:

https://www.youtube.com/watch?v=VZscF6QX-qY

Neben ausgedünnter Ausrüstung habe ich für 2021 vor (sollte in diesem Jahr überhaupt geheiratet werden) den Ton besser hinbekommen und vor allem mit Assistenz zur arbeiten. Ich stehe kurz davor, mir eine 2. A7SIII zuzulegen und meine Assistentin damit auszustatten. Dann dürfen die Gh5en in den Ruhestand gehen.



Antwort von rush:

@Mediamind... Ich bin momentan auch dabei etwas zu entschlacken. Nur fehlt mir noch die "passende" Sony dafür ;-)

Wahrscheinlich wird es bei mir perspektivisch dann iwann die A7r V / A9xx werden - sofern Sony diese in Sachen Video nicht unnötig kastriert.
Die krassen LowLight Fähigkeiten der A7SIII benötige ich nicht / habe ich nie gebraucht.

Ein nutzbarer S35 Crop Mode in guter 4K 10Bit Quali und ebenso 10bit @ 4K FF müssten aber schon an Board sein - dann wäre der Umstieg von der A7rII für mich ziemlich eindeutig vorgegeben - und die Pocket 4K würde dann vermutlich auch früher oder später wegen akuter Wenignutzung gehen.



Antwort von Axel:

Mediamind hat geschrieben:
Resolve ist ohne Frage ein gutes Programm. Ich scheue nur den Spagat zwischen verschiedenen NLE. Bei FCPX fühle ich mich über die Jahre hinweg immer sicherer und entdecke trotzdem immer wieder für mich neue Möglichkeiten.
Ich bin ja auch ein FCP-Fanboy. Ich darf dir aber sagen, dass der Roundtrip mittels FCPXML eine Sache von 30 Sekunden ist. SLog3 kannst du in FCP sorglos schon im Inspektor mit Kamera-LUT SLog3 überziehen (Browser >alle Clips auswählen), ohne für Resolve was kaputtzumachen. Du kannst alle Pages vor Color getrost überspringen. Die Post, die dir Resolve Studio bietet, müsstest du in FCP durch viele Plugins teuer bezahlen, und die sind nicht so gut. Stichwort Tracker. Der ist gut und einfach. Und viele, viele Features, für die man eine lange Liste bräuchte. Allein der neue Color Warper ist ähnlich wie Cinema Grade, Verschieben von Farbe, Sättigung und Helligkeit direkt auf dem Bild.

Tip: wenn du mal Zeit hast, mach ein kleines Testprojekt in 8-bit (erlaubt die freie Version), schick's nach Resolve und importiere dort "Timeline von XML" (o.ä.). Alle Einstellungen werden automatisch übernommen. Dann siehst du, wie gut das gelöst ist.



Antwort von Mediamind:

Lowlight ist für mich umso wichtiger, früher musste ich Handstände machen, damit ich bei abendlichen Gesellschaften klar kam. Jetzt habe ich eher das Problem, dass mir die Qualität des Lichts nicht zusagt und das kann man mit geringen Aufwand fixen. Das ist im Vergleich zu vorher ein Luxusproblem. Meine S1 werde ich erst einmal behalten, in Sachen Dynamik und Optiken habe ich hier einfach tolle Optionen. Mal schauen, was Sony 2021 noch alles zu bieten hat. Eine Nachfolge der A7III mit 10 BitBit im Glossar erklärt wäre nice und würde den Rahmen nicht sprengen.
@Axel: Da der Lockdown mich praktisch seit 2020 aus dem Rennen geworfen hat, werde ich das einmal probieren. Cinema Grade habe ich seinerzeit teuer gekauft und es läuft (noch) nicht mit dem M1. Außerdem habe ich keinen guten Workflow in FCPX zur Einbindung des Colorcheckers von A-Rite, der in Cinema Grade ist einfach schlecht gelöst und ich will keinesfalls in das eigentlich obsolete Color Finale investieren. Resolve bietet da ja einen geeigneten Workflow, soweit ich weis.



Antwort von Alex T:

Mediamind hat geschrieben:
Überigens, der YTer hat ebenfalls die vorhandene Beleuchtung als Kunstlicht bezeichnet (der Stachel sitzt tief :-)
Sorry, ich hab mir das nicht ausgedacht :)
Stimmt schon, dass der Begriff "Kunstlicht" in der Branche nicht wirklich gut gewählt ist und aufs Glatteis führt. Warmlicht wäre m.E. passender mit der Unterscheidung, ob es sich um Profi-Equipment handelt oder nicht.
Ansonsten kann man auch Begriffe wie "Practicals", "vorhandene Lichtquellen", "Motivbeleuchtung", "Raum-, Gartenbeleuchtung" oder ähnliches verwenden...



Antwort von roki100:

Sehr schön...so muss es sein.... bei der Atmosphäre, Licht und all die schöne Menschen, würde das ganze mMn auch mit GH5en super aussehen. Eben anders, als wenn ein paar Bayer in Leder Latex Latzhosen tanzen und die Helene hin und her durch die Berge und Wälder hin zu ihren zukünftigen Ehemann wandert... ;)



Antwort von Mediamind:

Lieber Roki, das triggert meine Verbundenheit mit Bayern und den Menschen dort :-)
So eine richtig ländliche Hochzeit ist doch ein Highlight:
https://www.youtube.com/watch?v=_UX0yHmJUNg
Ist übrigens mit einer Gh5 aufgenommen.



Antwort von klusterdegenerierung:

Mediamind hat geschrieben:
Resolve ist ohne Frage ein gutes Programm. Ich scheue nur den Spagat zwischen verschiedenen NLE.
Wenn es nicht so viele Clips betrifft gibt es ja auch noch die Möglichkeit diese in Resolve zu entflickern und zu exportieren und dann hinterher in FCP gegen das originale auszutauschen.



Antwort von roki100:

Mediamind hat geschrieben:
Lieber Roki, das triggert meine Verbundenheit mit Bayern und den Menschen dort :-)
So eine richtig ländliche Hochzeit ist doch ein Highlight:
https://www.youtube.com/watch?v=_UX0yHmJUNg
Ist übrigens mit einer Gh5 aufgenommen.
haha... ;) Ja auch schön, nur eben anders.... ;)



Antwort von pillepalle:

"Alex T" hat geschrieben:
Mediamind hat geschrieben:
Überigens, der YTer hat ebenfalls die vorhandene Beleuchtung als Kunstlicht bezeichnet (der Stachel sitzt tief :-)
Sorry, ich hab mir das nicht ausgedacht :)
Stimmt schon, dass der Begriff "Kunstlicht" in der Branche nicht wirklich gut gewählt ist und aufs Glatteis führt. Warmlicht wäre m.E. passender mit der Unterscheidung, ob es sich um Profi-Equipment handelt oder nicht.
Ansonsten kann man auch Begriffe wie "Practicals", "vorhandene Lichtquellen", "Motivbeleuchtung", "Raum-, Gartenbeleuchtung" oder ähnliches verwenden...
Korrekterweise hätte man tatsächlich flimmerfreies Licht sagen müssen, wenn man diese Eigenschaft meint. Denn es ist eben nicht mehr davon abhängig, ob es künstlich erzeugt wird (siehe HMI oder LED), oder ob es sich um Tageslicht handelt. Ist aber schon ein wenig Erbsenzählerei, denn normalerweise versteht man aus dem Zusammenhang, welche Eigenschaft des Lichts gemeint ist. Zumal eigentlich alle haushaltsüblichen Lichtquellen flackern ...außer vielleicht Kerzen, oder das Kaminfeuer :)

In der Fotografie ist übrigens Dauerlicht der Oberbegriff für alle Lichtarten (unabhängig von der Farbtemperatur), wenn man es z.B. von Blitzlicht unterscheiden möchte. Mit dem Begriff Kunstlicht war künstliches Licht gemeint (im Gegensatz zu Tageslicht, bzw. natürlichem Licht) und es bezieht sich meist auf Licht mit einer Farbtemperatur von 3200K (Wolfram) oder 3400K (Halogen), da künstliches Licht früher diese Farbtemperatur hatte. Kann aber eben in Zeiten von HMI und LED Leuchten (die ja auch künstlich sind) auch zu Verwirrung führen, wenn man nicht weiß, ob damit die Farbtemperatur, die Art der Beleuchtung (Dauer- oder Blitzlicht), oder die Natur des Lichts gemeint ist (künstlich oder natürlich). Auch Begriffe wie Heisslicht, sagen spätestens seit HMI Licht nichts über die Farbtemperatur aus.

VG



Antwort von Mediamind:

Heute habe ich einmal den FTP Transfer zu einer Diskstation über Wlan ausprobiert. Das läuft wie Schmitz Katze.



Antwort von Mediamind:

Ich habe gerade einen Film geschnitten. Ein paar Szenen waren nicht ganz optimal, bei 200 mm und dicken Minusgraden hat es bei mir gewackelt. In FCPX habe ich das Häckchen bei "Stabilisierung" gemacht. Mache ich eigentlich nicht gerne, die Ergebnisse sehen dann teilweise schlechter aus, als wenn ich den Wackler einfach gelassen hätte. Nun ja... was soll ich sagen (Spannungsbogen wird aufgebaut...) ...
Das Ergebnis ist außergewöhnlich gut. Viel zu gut. Eigentlich unplausibel gut. Das hat nicht mehr mit dem Entwackeln zu tun, welches ich in FCPX kannte. Der Clip ist wie festgenagelt ohne komisches Zappeln z.B. des Hintergrundes. Das sieht aus, wie das Ergebnis nach durchgeführter Gyrostabilisierung mit Catalyst Browse.
Kann es sein, dass FCPX nun die Gyrodaten zur Stabilisierung nutzt? Probiert das einmal aus und gebt einmal eine Rückmeldung. Bin ich auf dem Holzweg?



Antwort von r.p.television:

Mediamind hat geschrieben:
Ich habe gerade einen Film geschnitten. Ein paar Szenen waren nicht ganz optimal, bei 200 mm und dicken Minusgraden hat es bei mir gewackelt. In FCPX habe ich das Häckchen bei "Stabilisierung" gemacht. Mache ich eigentlich nicht gerne, die Ergebnisse sehen dann teilweise schlechter aus, als wenn ich den Wackler einfach gelassen hätte. Nun ja... was soll ich sagen (Spannungsbogen wird aufgebaut...) ...
Das Ergebnis ist außergewöhnlich gut. Viel zu gut. Eigentlich unplausibel gut. Das hat nicht mehr mit dem Entwackeln zu tun, welches ich in FCPX kannte. Der Clip ist wie festgenagelt ohne komisches Zappeln z.B. des Hintergrundes. Das sieht aus, wie das Ergebnis nach durchgeführter Gyrostabilisierung mit Catalyst Browse.
Kann es sein, dass FCPX nun die Gyrodaten zur Stabilisierung nutzt? Probiert das einmal aus und gebt einmal eine Rückmeldung. Bin ich auf dem Holzweg?
Nein. Das ist auch bei mir so und hat schlicht mit der rekirdverdächtig schnellen Auslesezeit des Sensors zu tun. Ein weiterer grosser Vorteil der A7SIII.



Antwort von Alex T:

Mediamind hat geschrieben:
Das Ergebnis ist außergewöhnlich gut. Viel zu gut.
Zeig doch mal...



Antwort von Mediamind:

Gerne. Die Clips sind immer identisch, bis auf die Stabilisierung. Ich habe es in HD ausgegeben und 4K aufgenommen (oder andersherum).
https://www.dropbox.com/s/78dmuggjffice ... t.m4v?dl=0
Die Stabilisierung wirkt jetzt so, als ob ich die Kamera ganz ruhig bewegt hätte. Besonders bei dem zugefrorenen Bootsstegen ist das gut zu sehen.



Antwort von Axel:

Mediamind hat geschrieben:
Gerne. Die Clips sind immer identisch, bis auf die Stabilisierung.
Ich war früher, mit normalen Camcordern, nie der Zitterer-Fürchter. Wurde erst dazu mit DSLMs. Aber der Active Mode und der quasi nichtexistente Rolling ShutterShutter im Glossar erklärt der A7Siii lassen mich wieder nachsichtig werden. Ich finde an leichter Instabilität deiner Vorher-Alternativen nichts augenfällig Schlimmes. Und so kleine Sachen auszubügeln, dazu reichten die eingebauten Stabis in FCP schon immer, und es war schon immer super, dass sie keine Echtzeit kosteten.

Zwei Fragen:
1. Wenn du jetzt eine neue Tele-Linse für die Sony kaufen müsstest, würde es dann das 70-200 f4 (das du ja wohl gerade hast)?
2. Wenn du jetzt einen Rechner für den Schnitt von A7Siii-Footage kaufen müsstest, würde es noch immer das MB Air M1? Und wenn ja, kommt es gut klar mit XAVC-S 10-bit?



Antwort von Mediamind:

Wie gesagt: die Stabilsierungsergebnisse einer Gh5 oder Z6 in FCPX sind schlechter. Man sieht das gerne am Hintergrund, wenn der Vodergrund stabilsiert wurde. Die gezeigten Clips hingegen sind wie gesagt eher wie die Ergebnisse der Gyrostabilisierung aus Catalyst Browse. Ich bin heute noch mal mit Frau und Kind im Schnee unterwegs und werde einmal mehr wackeln probeweise ins Bild bringen. Bei kurzen Verschlusszeiten.
Zu Deinen Fragen: Das 70-200 f:4 ist gut aber nicht so gut wie das Pendant von Panasonic, welches ich für die S1 einsetzte. Dafür gibt es das Objektiv allerdings auch deutlich günstiger. Ich würde es erneut kaufen. Die f:4 haben einen Vorteil: Die Tiefenschärfe passt einfach super für den Filmbereich. Als Forograf würde ich BlendeBlende im Glossar erklärt 2.8 bevorzugen, für Film ist das die bessere Wahl. vor allem ist es leicht, fokussiert unhörbar leise und die Länge verändert sich aufgrund innenliegender Fokussierung nicht. Dazu ist es auch noch gut verarbeitet. Für meine Zwecke eine klare Kaufempfehlung.
Das MB Air kommt prima mit dem 10 Bit-Material zurecht. In meinem Fall passt das als Interimslösung bis zur Verfügbarkeit der neuen iMacs. Meine Mädels bekommen dann das Air. Mein Workflow ist mit dem Air deutlich besser, als es mit dem MB Pro aus 2016 für 3K möglich war. Absolut flüssig. Bei den Effekten kommt er ins Stottern, deswegen habe ich RendernRendern im Glossar erklärt im Hintergrund aktivieren müssen, dann läuft alles auch mit Effekten flüssig.



Antwort von Axel:

Danke. Ich machte mir bezüglich des 70-200 dieselben Gedanken. Ich ärgere mich ja immer noch, dass das 18-105 f4 von meiner A6500 auf Vollformat 4k so stark vignettiert, denn es hat auch diese Eigenschaft, f4 durchgängig zu haben und nicht auszufahren. Mit dem durch 24MP Sensor voll nutzbaren 2 x Clear Image ZoomZoom im Glossar erklärt war es bezogen auf Vollformat ein 27-315mm. Und obwohl ich, wie viele, in Bezug auf Tele-Anschaffungen eher geizig bin, ertappe ich mich dabei, längere Brennweiten lieber zu benutzen. Auch deine Gedanken zum MBA finde ich schlüssig. Ich rechne mit der Einführung von neuen iMacs nicht vor dem Herbst, die Verfügbarkeit wird eher so um Weihnachten liegen, der Preis für meine Wünsche typischerweise 3k. Da ist eine Interimslösung nicht so doof.



Antwort von Funless:

Also wenn ich kurz meinen Senf zum MB Air M1 geben darf (ohne diesen Thread jetzt kapern zu wollen), ich habe meins nun seit knapp zwei Wochen und was das Teil an Speed, bzw. flüssiger Bearbeitung hinlegt hab' ich bisher noch nie erlebt. Hatte spaßeshalber Resolve installiert und dort dann einen siebenminütigen Clip aus meinem X-S10 Material zusammengeschnitten mit Titelgedöhns, Sound Foleys und PiePaPo (wie allgemein bekannt, mache ich kein Colorgrading) und Export Renderzeit betrug etwas über zwei Minuten. Das MB Air wurde dabei lauwarm.

Dann den selben Clip in FCP zusammen montiert mit all dem Kladdaradatsch wie in Resolve und als ob das nicht reichen würde noch weiteres Footage hinzugefügt, so dass daraus ein elf Minuten Clip wurde und dann exportiert ... so schnell konnte ich gar nicht gucken wie's fertig gerendertgerendert im Glossar erklärt war, gefühlte Schätzung eineinhalb Minuten und das MB blieb dabei kalt!

Also ich bin mit der Anschaffung mehr als zufrieden.

Sorry für OT.



Antwort von rush:

Viele warten ja noch immer auf das hoffentlich kommende 70-200er 2.8. von Sigma in der DG DN Ausführung. Ich würde mich auch darüber freuen da mir die weißen Sony's einfach nicht gefallen.

Das Tamron 70-180er soll optisch ebenfalls sehr gut abbilden aber hat keinen Stabi und eben auch einen ausfahrenden Tubus was zwar im eingeschoben Zustand sehr kompakt ist aber spätestens mit Mattebox zum Problem wird.

Interessant das Du das 18-105er an KB nutzt - denn dafür ist es ja wirklich nicht gerechnet.

Eigentlich wäre ja das betagte 28-135er von Sony für die A7s oder entsprechende FXen wieder eine interessante Alternative, gebraucht aber auch neu sogar mehr oder weniger erschwinglich. Ist halt nicht ultra modern und der Servo weiterhin ziemlich nervig - aber von der BrennweiteBrennweite im Glossar erklärt her, dem Funktionsumfang inkl AF und der konstanten Lichtstärke dann doch wieder eine mögliche Alternative über die man gewiss nachdenken kann wenn man einen Allrounder sucht.
Nutzt das Glas zufällig jemand von Euch? Mich würde interessieren ob der AF an der A7S III potent arbeitet oder modernere Gläser da eine spürbare Steigerung an selbiger erfahren?

Hin und wieder kommt mir der Gedanke der A7S III ja doch wieder in den Kopf - auch wenn ich eigentlich lieber 'nen Hybriden mit etwas erhöhter Fotoauflösung + Crop-Fähigkeit suche.
Die A7 IV werde ich mal noch abwarten - und dann abwägen. Vielleicht kommt auch die A7S III und ergänzt die vorhandene A7R II - wären dann halt zwei Bodys.



Antwort von Axel:

Funless hat geschrieben:
Also wenn ich kurz meinen Senf zum MB Air M1 geben darf (ohne diesen Thread jetzt kapern zu wollen), ich habe meins nun seit knapp zwei Wochen ...
7 oder 8 Kerne? 8 GB oder 16 GB Ram?
rush hat geschrieben:
Viele warten ja noch immer auf das hoffentlich kommende 70-200er 2.8. von Sigma in der DG DN Ausführung.
Warten die darauf wie auf das legendäre Einhorn? Oder gibt es einen Industrie-Enthüller mit fundierten Spekulationen? Da würde ich gerne mitmunkeln.
rush hat geschrieben:
Interessant das Du das 18-105er an KB nutzt - denn dafür ist es ja wirklich nicht gerechnet.
Das ist es ja. Es ist nur mit einem beträchtlichen zusätzlichen Crop in 4k zu verwenden. Oder halt nur in 1080.
rush hat geschrieben:
Eigentlich wäre ja das betagte 28-135er von Sony für die A7s oder entsprechende FXen wieder eine interessante Alternative, gebraucht aber auch neu sogar mehr oder weniger erschwinglich. Ist halt nicht ultra modern und der Servo weiterhin ziemlich nervig - aber von der BrennweiteBrennweite im Glossar erklärt her, dem Funktionsumfang inkl AF und der konstanten Lichtstärke dann doch wieder eine mögliche Alternative über die man gewiss nachdenken kann wenn man einen Allrounder sucht.
Nutzt das Glas zufällig jemand von Euch? Mich würde interessieren ob der AF an der A7S III potent arbeitet oder modernere Gläser da eine spürbare Steigerung an selbiger erfahren?
Ich habe es tatsächlich geliehen. Kommt man ja gebraucht für nicht deutlich unter 1800 € ran. Und es ist vergleichbar mit dem o.e. 18-105, was bekanntlich neu 500 € kostet. Bloß, dass es, umgerechnet auf KB, einen kleineren Telebereich hat. Ich denke, wenn ich einen 70er-Jahre-Zoom brauche, werde ich lieber mit der verminderten Auflösung leben.



Antwort von rush:

Axel hat geschrieben:
rush hat geschrieben:
Viele warten ja noch immer auf das hoffentlich kommende 70-200er 2.8. von Sigma in der DG DN Ausführung.
Warten die darauf wie auf das legendäre Einhorn? Oder gibt es einen Industrie-Enthüller mit fundierten Spekulationen? Da würde ich gerne mitmunkeln.
Es würde mich schon stark wundern wenn sie dem 24-70 DG DN keinen Kompanion an die Seite stellen würden.

Das Glas wurde mehrfach für Herbst/Winter 2020 vermutet und angeblich aufgrund AF Problemen "verschoben". Ob da was dran ist oder auch nicht - Sigma wird in meinen Augen mit hoher Wahrscheinlichkeit ein entsprechendes Tele für Sony E bringen, die Frage ist nur wann.
Tamron hat es ja auch getan...

Aktuell geistert ein Sigma 28-70er Rumor durchs Netz - vllt sind das aber auch Fehlinformation und es wird das entsprechende Tele-Zoom... Denn Sigma ist mit dem 24-70 DG DN ja eigentlich bestens aufgestellt.



Antwort von Funless:

Axel hat geschrieben:
Funless hat geschrieben:
Also wenn ich kurz meinen Senf zum MB Air M1 geben darf (ohne diesen Thread jetzt kapern zu wollen), ich habe meins nun seit knapp zwei Wochen ...
7 oder 8 Kerne? 8 GB oder 16 GB Ram?
8/8’er 16GB RAM 1TB SSD, hab mir letzte Woche noch dazu eine 1TB T7 bei Amazon geholt, da sie da gerade für 121,-€ im Angebot war. Somit hab ich storage mäßig für die nächsten 2-3 Jahre ausgesorgt.



Antwort von rush:

Da bist du aber sehr optimistisch bei insgesamt "nur" 2TB für einen Zeitraum von 2-3 Jahren finde ich.

Oder betrachtest du die beiden als reine Arbeitslaufwerke die dann zeitnah wieder leergeräumt/archiviert werden?



Antwort von Funless:

Arbeitslaufwerke. Bin kein professioneller Filmer, nur Hobbyfilmer, Original Material behalte ich nach Abschluss meiner Projekte so gut wie gar nicht. Würde ich das beruflich machen, gebe ich dir recht, dann würde ich weitaus mehr benötigen.



Antwort von hexeric:

habt ihr schon mit dem K3M audio adapter den 4-ch 24bit ton versucht?
da kommt "ipcm" raus, ein extremer frankensteincodec, den ich in keiner software zum laufen bekomme.
also video geht aber audio stumm. in 2-ch geht es ohne probleme.
p.s. der adapter sendet digital über den blitzschuh 4 tracks (2 XLRXLR im Glossar erklärt und 2 klinke)



Antwort von groover:

....müsst ich mir mal anschauen. ich verwende den K3M bisher nur als 2 Kanal an der A7Siii.
Sollte aber eigentlich auch als 4Kanal funktionieren.
LG Ali



Antwort von r.p.television:

hexeric hat geschrieben:
habt ihr schon mit dem K3M audio adapter den 4-ch 24bit ton versucht?
da kommt "ipcm" raus, ein extremer frankensteincodec, den ich in keiner software zum laufen bekomme.
also video geht aber audio stumm. in 2-ch geht es ohne probleme.
p.s. der adapter sendet digital über den blitzschuh 4 tracks (2 XLRXLR im Glossar erklärt und 2 klinke)
In Premiere geht es angeblich.



Antwort von Axel:

Ich meine, in einem Benutzerkommentar zu Gerald Undones Klage über das nicht-konforme 4-Kanal-Audio gelesen zu haben, dass die neueste Version von Premiere es unterstützt. Auch das November-Update von Catalyst-Browse sagt:
"Jetzt Unterstützung für Lesen und Vorschau von XAVC S-Clips mit 48kHz, 24-bit, 4-Kanal-Audio."



Antwort von hexeric:

will premiere vermeiden, geht aber auch nicht mit der 2020 version am mac.
das problem ist im internet bekannt, was sony da baut ist eher grenzgängig :)
h264 kann ja nur stereo. 4-ch sind in einem sehr exotischen format
habe alle meine 7 tools versucht, niemand kommt mit dem ton klar.
FCP, resolve, PP, ME, audacity, ffmpeg, editready, etc...

hat wer noch nen tipp?



Antwort von hexeric:

Axel hat geschrieben:
Ich meine, in einem Benutzerkommentar zu Gerald Undones Klage über das nicht-konforme 4-Kanal-Audio gelesen zu haben, dass die neueste Version von Premiere es unterstützt. Auch das November-Update von Catalyst-Browse sagt:
"Jetzt Unterstützung für Lesen und Vorschau von XAVC S-Clips mit 48kHz, 24-bit, 4-Kanal-Audio."
wandeln wäre halt schön...mein gott...was wurde da wieder gepanscht
ich liebe die s3, aber die formate sind teilweise abenteuerlich :D



Antwort von tvontheradio:

hexeric hat geschrieben:
h264 kann ja nur stereo. 4-ch sind in einem sehr exotischen format
habe alle meine 7 tools versucht, niemand kommt mit dem ton klar.
FCP, resolve, PP, ME, audacity, ffmpeg, editready, etc...

hat wer noch nen tipp?
h264 ist ein video-codec, das kann gar kein audio. an und für sich ist es kein problem ein mp4/mov/mxf zu machen mit mehr als 2 tonspuren und h264 video. es geht ja um den container/audiocodec der hier probleme macht bzw. anscheinend nicht unterstützt wird.

gibts irgendwo entsprechednes footage zum runterladen? und funktioniert wav export im shutterencoder (ffmpeg) und dann in der NLE relinken auch incht?

gerald undone hat als workaround glaub ich gesagt in 16bit gibts das problem nicht. keine gute/saubere dauerlösung aber für situationen wo man sauber aussteuern kann vielleicht erstmal ein ok'er workaround.



Antwort von hexeric:

sony catalyst browser kann es nach prores wandeln mit einwandfreien PCM kanälen
sonst hat, auch ffmpeg, bei mir nicht geklappt. 2-ch 16bit kein thema, aber die 4-ch 24bit sind natürlich geil



Antwort von dosaris:

Axel hat geschrieben:
...
"Jetzt Unterstützung für Lesen und Vorschau von XAVC S-Clips mit 48kHz, 24-bit, 4-Kanal-Audio."
nur mal so interessenhalber:
was fängt man mit 4-Kanal-Audio an?

ist das vl-vr-hl-hr? Ohne center?

oder (sinnvoller?): l-c-r-surround(hinten) (ähnlich ProLogic)?



Antwort von cantsin:

dosaris hat geschrieben:
was fängt man mit 4-Kanal-Audio an?
Naja, ist doch nicht verkehrt, um z.B. mit einem Stereomikrofon AtmoAtmo im Glossar erklärt aufzunehmen und gleichzeitig mit 1-2 Lavaliers oder Richtmikrofonen individuelle Sprecher.



Antwort von hexeric:

es ist nicht 4-kanalton sondern 4-channel (tracks)
also 4 unabhängige mics oder 2 stereo spuren
gut für musik, atmo und interviews/sprache



Antwort von Mediamind:

dosaris hat geschrieben:
Axel hat geschrieben:
...
"Jetzt Unterstützung für Lesen und Vorschau von XAVC S-Clips mit 48kHz, 24-bit, 4-Kanal-Audio."
nur mal so interessenhalber:
was fängt man mit 4-Kanal-Audio an?

ist das vl-vr-hl-hr? Ohne center?

oder (sinnvoller?): l-c-r-surround(hinten) (ähnlich ProLogic)?
Ich benötige 2 Kanäle für den Timecodegenerator. 2 weitere für XLRXLR im Glossar erklärt Micros. Würde ich den TC per XLRXLR im Glossar erklärt einspeisen, wäre nur noch ein einzelner XLRXLR im Glossar erklärt übrig. Ich weis nach wie vor nicht, ob das mit dem Sony XLRXLR im Glossar erklärt Adapter überhaupt so wie geplant klappt. Ich hatte den Adapter mit Wintercashback bestellt und gleich wieder abbestellt, nachdem der Liefertermin auf Mitte April verlegt wurde.



Antwort von Mediamind:

Thema Timecode:
Ich nutze für TC eigentlich Tentacles. Die A7SIII hat einen File TC, den man aber nur begrenzt nutzen kann. Abgesehen von Recrun und Freerun, kann man das ggf. anders triggern?



Antwort von rush:

Nutzt jemand von Euch die Kamera hin und wieder auch zum fotografieren?
Mich würden mal RAW (*.arw) Files aus der Kamera interessieren, am besten unkomprimierte RAWs.
Habe bisher im Netz scheinbar nur komprimierte (jeweils um 13MB) RAW-Files entdeckt - mit denen mag mein RAW-Entwickler aktuell aber noch nicht zusammenarbeiten... die "unkomprimierten RAW's" sollen aber angeblich bereits unterstützt werden - daher würden mich diese besonders interessieren... diese müssten doch auch etwas mehr als 13MB haben?

Wenn jemand 1-2 Fotos bereitstellen könnte oder einen Link zu vorhandenen, unkomprimierten A7S III ARW Dateien hat - gern her damit!



Antwort von ONV:

rush hat geschrieben:
Wenn jemand 1-2 Fotos bereitstellen könnte oder einen Link zu vorhandenen, unkomprimierten A7S III ARW Dateien hat - gern her damit!
here you go:
https://1drv.ms/u/s!AoklohV2kGuihZJuMeR ... A?e=aUB6aa

Nichts spannendes, aber unkomprimiert.
Rund 25 MB das Stück, glaube ich...



Antwort von rush:

Mega - besten Dank dafür!
Damit kommt mein RAW-Entwickler tatsächlich nativ klar - gut zu wissen... und auch das Profil für das 28-75er Tamron hat er in der Kombi bereits am Start.

Top - das hilft definitiv weiter - thx :-)



Antwort von rush:

Nochmal eine Frage zu dieser Gyro-Stabi Geschichte...

Das ganze funzt also nur wenn Stabi auf AUS oder ACTIVE steht?
Und woran erkennt man in Vorfeld mit welchen Objektiven das klappt?

Sigma hat ja die neueren DG DNs die scheinbar spielen? Wie sieht es mit den etwas älteren, ebenfalls mit Sony E Mount ausgestatteten Festbrennweiten aus die noch nicht aus der DG DN Linie kommen?
Tamron? 28-75er?
Samyang?
Finde ich irgendwie schwierig woran man das fest macht - unabhängig der Frage ob man es am Ende nutzt...



Antwort von ONV:

rush hat geschrieben:
Nochmal eine Frage zu dieser Gyro-Stabi Geschichte...

Das ganze funzt also nur wenn Stabi auf AUS oder ACTIVE steht?
Und woran erkennt man in Vorfeld mit welchen Objektiven das klappt?

Sigma hat ja die neueren DG DNs die scheinbar spielen? Wie sieht es mit den etwas älteren, ebenfalls mit Sony E Mount ausgestatteten Festbrennweiten aus die noch nicht aus der DG DN Linie kommen?
Tamron? 28-75er?
Samyang?
Finde ich irgendwie schwierig woran man das fest macht - unabhängig der Frage ob man es am Ende nutzt...
Das Tamron 28-75 funktioniert problemlos mit der gyroskopischen Stabilisierung. Ich kann allerdings Clips mit allen Steadyshot Einstellungen in Catalyst Browse stabilisieren, egal ob AUS, STANDARD oder ACTIVE.

Ansonsten - gibt's von Sony keine offizielle Kompatibilitätsliste? Ich hätte jetzt mal vermutet, dass der Gyro-Support für alle E-Mount Objektive gilt die über eine elektronische Übertragung von Objektivdaten verfügen. Ich kann selbst mit meinem MC-11 und einem Sigma EF Art 50mm die Gyro-Stabilisierung nutzen. Lediglich mein rein-mechanischer billiger Nikon-Adapter erfordert für die IBIS eine manuelle Eingabe der BrennweiteBrennweite im Glossar erklärt und gibt mir später keine Möglichkeit in Catalyst Gyro-Daten zu verwenden.

Also ich vermute(!) mal, dass alle Objektive die Autofokus an dem Body unterstützen auch per Gyro stabilisiert werden können. Aber ist nur eine Vermutung!



Antwort von rush:

Das ist interessant. Mir erschien das eben auch etwas unklar beim durchblättern der letzten Seiten hier die sich auf Gyro-Stabi bezogen.

In ersten Artikeln oder auch Videos hieß es immer das IBIS auf jedenfall deaktiviert werden muss (etwa von Brandon Li).
Dann laß ich hier im Forum das es sowohl bei OFF und ACTIVE - nicht aber im normalen ON Modus des Stabis funzt.

Und die Verwirrung bezüglich kompatibler Gläser erleichtert das ganze nicht eben weil auch da keine klare Aussage zu finden ist (oder ich sie nicht gefunden habe).

Danke daher auch für Deinen Input...
Vllt. hat sich das mit Updates der Kamera & / Oder von Catalyst Browse ja auch verbessert? Es wäre ja wirklich sinnvoll wenn Gyro-Daten faktisch immer mit aufgezeichnet werden - unabhängig vom Stabi-Mode.. die Kamera bewegt sich ja nun einmal mit jedem Objektiv - entscheidend und ausschlaggebend dürfte daher primär die BrennweiteBrennweite im Glossar erklärt neben den Bewegungsdaten für die Gyro-Stabilisierung sein und die müsste ja in der Tat bei allen nativen E-Mount Gläsern elektronischer Bauart sowieso durchgereicht werden.



Antwort von Axel:

Welches Objektiv man drauf hat ist wohl weniger das Problem, wenn einem klar ist, dass Gyro kein zusätzliches Stabi-Backup ist, sondern geplant sein muss wegen der leider unabdingbaren Eliminierung der Bewegungsunschärfe durch sehr kurze Verschlusszeiten. Auch Motion BlurBlur im Glossar erklärt kann man nachträglich wieder hinzurechnen, ich denke aber, dass wir besser fahren, ein möglich wenig prozessiertes Bild anzustreben. Wie Mediamind ja gezeigt hat, sind statische oder beinahe statische Aufnahmen durch Active Steady Shot schon abgedeckt und lassen sich (z. B. bei Tele) noch zusätzlich in der Post stabilisieren. Gyro ist etwas für Action oder wahrscheinlich für Hyperlapse (was ich selbst allerdings nie probiert habe, mit oder ohne Gyros).



Antwort von Mediamind:

Als die A7SIII heraus kam, konnte die damalige Version con Catalyst Browse scheinbar nur mit Steadyshot auf Off umgehen. Auf meinem Smartphone in der Imaging App unter Neuigkeiten hatte ich dann im Dezember den Updatehinweis, dass nun auch Clips mit Steadyshot auf On stabilisierbar sind. Das wurde an keine anderen Stelle dokumentiert, auch ncht bei den Versionhinwesien von CB auf den Sonyseiten. Es gab letztes Jahr definitiv Hinweise, dass einige Fremdoptiken nicht unterstützt werden. Ob das nun mit der aktuellen Version von CB immer noch so ist, kann ich nicht sagen. Meine Sigma DGDN laufen jedenfalls ohne Probleme.
Das Update ist insofern interessant, als das man die Entscheidung für eine Stabilisierung über CB nun nicht mehr bei der Aufnahme treffen muss. Ich habe ein wenig mit der Gyrostabilisierung experimentiert. Richtig fette Ruckler benötigen tatsächlich kurze Verschlusszeiten. Ansonsten gibt es verschmierte Augenblicke, die dann sehr störend wahrgenommen werden. Der aufgenommene Ruckler ist auf den FrameFrame im Glossar erklärt betrachtet natürlich ein unscharfes verwischtes Bild, da kann auch Gyrostabilsierung dies nur verschmiert darstellen. Bei allen normalen Situationen, bei denen man ein leichtes Zittern kompensieren muss, geht CB ohne Pro auch mit 1/50 ohne Probleme. Da geht allerdings, wie dargestellt, die Stabi in der Post auch hervorragend.



Antwort von shellbeach:

Bei der R6 habe ich festgestellt, dass die Geräusche vom Nachführautofokus (vielleicht war es auch der Stabi) auf die Tonspur vom internen Mikro aufgezeichnet werden. Konnte das jemand bei der A7S III auch feststellen?



Antwort von ruessel:

auf die Tonspur vom internen Mikro aufgezeichnet
Ist doch ganz normal. Hatte ich schon in den 80er Jahren bei VHS Kameras. ;-)



Antwort von Jott:

r.p.television hat geschrieben:
Das ist auch bei mir so und hat schlicht mit der rekirdverdächtig schnellen Auslesezeit des Sensors zu tun. Ein weiterer grosser Vorteil der A7SIII.
Genau. Kaum Rolling ShutterShutter im Glossar erklärt, und das Ergebnis ist prima. Ist ja auch logisch, dann kann‘s nicht wobbeln.

In fcp x kann man obendrein zwischen „festnageln“ (Stativmodus) und verschiedenen Modi zum Belassen natürlicher Bewegung wählen.

Aber auch da gibt‘s keine Wunder, eine Kamera führen muss man natürlich trotzdem können.



Antwort von rush:

shellbeach hat geschrieben:
Bei der R6 habe ich festgestellt, dass die Geräusche vom Nachführautofokus (vielleicht war es auch der Stabi) auf die Tonspur vom internen Mikro aufgezeichnet werden. Konnte das jemand bei der A7S III auch feststellen?
Das dürfte in erster Linie vom verwendeten Objektiv abhängig sein und wie laut dessen AF Motoren rattern - da gibt es teils deutliche Unterschiede je nach Hersteller...

Ich hatte kürzlich (Mal wieder testweise) ein 35er Samyang an meiner betagten A7rII - da hat man den AF-Motor des Objektives schon mit den Ohren akustisch wahrgenommen... die neueren Samyangs sind da besser geworden - aber im Vergleich zum adäquaten Sony 35er noch immer eine Nuance hörbarer.



Antwort von shellbeach:

ruessel hat geschrieben:
auf die Tonspur vom internen Mikro aufgezeichnet
Ist doch ganz normal. Hatte ich schon in den 80er Jahren bei VHS Kameras. ;-)
ok, ich dachte das hätte man heutzutage besser zu entkoppeln geschafft. Finde ich jedenfalls doof, wenn man nicht gleich zum externen Mikro greifen will.



Antwort von shellbeach:

@rush
bei meinem Versuch war es R6 und RF 24-70 2,8.
Hätte das so nicht gedacht.

Denke es wird dann bei Sony nicht anders sein.

Hilft dann im worst case nur MF :-)



Antwort von rush:

Da hilft ein externes Mikro... Selbst kleine Aufsteck-Mikros sollten mit etwas Richtwirkung die Geräusche fast komplett ausblenden können .. ansonsten gehört das Mikro eh immer da hin wo der Ton herkommt und nicht auf die Kamera. Denn neben den Geräuschen des Fokusmotors/Stabi im Objektiv wird auch jedes Gefummel an der Kamera mit aufgezeichnet was man ja ungern drauf haben möchte.



Antwort von Mediamind:

Wäre mir bisher nicht aufgefallen. Ich nutze allerdings das interne Micro nie für Tonaufzeichnungen. Für Sprache habe ich entweder ein Instamic, oder Track-E am Start. Ansonsten ein Rode Videomic Pro Plus. Von daher wäre es mir eigentlich auch egal ob da etwas zu hören ist oder nicht.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7s I/II/III - Alpha 7 I/II/III - A7R I/II/III - RX10 - RX100-Forum

Antworten zu ähnlichen Fragen:
Sony kündigt weltweit erste CFexpress 2.0 Typ A Speicherkarte für Sony A7s III an
Sony a7R III - Sammelthread (Sony a7R III vs. II - Unboxing & erste Eindrücke)
Sony A7S iii - wann denn endlich??
Sony A7S III im Praxistest: Ergonomie, Bedienung, AF-System, Fazit ? Teil 2
Sony Alpha 7R IV im Anflug - werden heute Sony A7S III, A9 II und Alpha 7000 ebenfalls vorgestellt?
Nachtrag: Sony A7S III + Atomos Ninja V = 12bit ProRes RAW Aufzeichnung
Die Sony A7S III hat keine Hitzeprobleme -- oder möglicherweise doch?
Sony Alpha 1 im Vergleich zu A9 II, A7R IV und A7S III - welche Kamera wofür?
Sony A7S III - Atomos Ninja V Update für ProRes RAW Aufzeichnung ist da
Hochauflösendes 0,5-Zoll-OLED-Microdisplay als Sucher in der kommenden Sony A7S III?
Sony A7S III Praxistest: Hauttöne, 10 Bit 4:2:2 LOG/LUT und stabilisierter Sensor - Teil 1
Sony A7S III vs Canon EOS R6 Vergleich: Autofokus mit f1.8 offener Blende beim Interview
Wer hat die beste Video-Stabilisierung? Sony A7S III vs Canon EOS R5 vs Panasonic S1H
Sony a7s VS. a7s II: Welche ist besser für Video?
AIR2 Erste Erfahrungen
Erfahrungen mit GrabBee III ?
Erste Erfahrungen mit Pinnacle Studio 9
Erste Erfahrungen mit einem SteadXP+
HARDCORE - GEAR - Test DJI RS2 mit A7s iii, Raveneye bei -25 Grad in einem Eispalast
Sony Alpha 9 MKII im Anflug - Ausblick auf Sony A7S MKIII Austattung?
Pinnacle *de*installieren? (war Erste Erfahrungen mit Pinnacle Studio 9)
Farbartefakte SONY A7S II
Sony A7s auf 1FPS
Sony a7s II 4k intern full HD extern
Sony A7s Tipps und Tricks
Sony A7r ii und a7s BMVA 4k

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom