Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7/A7s/A7R I/II/III/IV - RX10 - RX100-Forum

Infoseite // Sony A7S III erste Erfahrungen, Bugs, Problemlösungen,...



Frage von Mediamind:


Ich mache diesen Beitrag einmal auf für all diejenigen, die ihre ersten Erfahrungen und ggf. auch Problemstellungen diskutieren möchten. Ich habe die Kamera dank Ferien nun seit 5 Tagen im Dauereinsatz und bin schwer begeistert. Jedoch gibt es ein paar Schwierigkeiten, die sicherlich bald per Update adressiert werden oder aber einfach nur an mir als nicht Sony-Nutzer liegen. An anderer Stelle habe ich beschrieben, dass die Zebras um ca. 20% daneben liegen viele zu spät ein Clipping anzeigen. Die HDMI Ausgabe bekomme ich nur als Rawausgabe hin, Longgop geht bei mir nicht. Eine Sache ist mir noch aufgefalen: auf der FN Taste liegen ja verschiedene wichtige Funktionen. Ich habe eine Funktion rausgeworfen und statt dessen die S&Q Bildfrequenz hinterlegt. Im S&Q Modus ändern sich allerdings die hier eingestellten Framerates nicht, man muss umständlicher über das Menue die Vorgabe ändern. Geht leider auch nicht, wenn man dies auf z.B. C3 legt.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Ich mache diesen Beitrag einmal auf für all diejenigen, die ihre ersten Erfahrungen und ggf. auch Problemstellungen diskutieren möchten. Ich habe die Kamera dank Ferien nun seit 5 Tagen im Dauereinsatz und bin schwer begeistert. Jedoch gibt es ein paar Schwierigkeiten, die sicherlich bald per Update adressiert werden oder aber einfach nur an mir als nicht Sony-Nutzer liegen. An anderer Stelle habe ich beschrieben, dass die Zebras um ca. 20% daneben liegen viele zu spät ein Clipping anzeigen. Die HDMI Ausgabe bekomme ich nur als Rawausgabe hin, Longgop geht bei mir nicht. Eine Sache ist mir noch aufgefalen: auf der FN Taste liegen ja verschiedene wichtige Funktionen. Ich habe eine Funktion rausgeworfen und statt dessen die S&Q Bildfrequenz hinterlegt. Im S&Q Modus ändern sich allerdings die hier eingestellten Framerates nicht, man muss umständlicher über das Menue die Vorgabe ändern. Geht leider auch nicht, wenn man dies auf z.B. C3 legt.
Ich habe den Verdacht, dass es sich um Missverständnisse handelt. Das mit dem Zebra kriegen wir hin, bei meiner gegenwärtig ihre Ablösung erwartenden A6500 ist es so, wie c-m-o-n im Nachbarthread geschrieben hat. Ich war der Meinung, dass SLog3 Clipping bei 100% bedeutet, aber vielleicht sind es 95, keine Erfahrung mit SLog3.

Ich glaube, du vertust dich mit S&Q erneut. Du verstellst über das Funktionsmenu die S&Q Aufnahmeframerate (z.B. 120), aber du musst trotzdem an der Kameraoberseite vom Filmstreifen (oder M1, M2, M3) auf "S&Q" drehen. Es ist halt auch die Frage, ob eine wirkliche Zeitlupe ohne Ton überhaupt einen Vorteil hat gegenüber einfach "120p" (Filmstreifen beibehalten, lässt sich z.B. auf M3c legen). Mit ersterem kannst du das unten getimete nicht machen, mit letzterem schon:
https://youtu.be/gqRH2RpAxVQ?t=369

Davon abgesehen ist es unfassbar, wie man ein solches Handbuch 🤬 verfassen kann. Kein Wunder, dass es zum Unboxing-Ritual gehört, diese achtlos über seine Schulter nach hinten zu schleudern. Dieses Mal ist es mal wieder so schlimm wie immer:
Belicht.StrdEinstlg = Damit wird der Standard für den korrekten Belichtungswert für jeden Messmodus eingestellt. > = Damit wird der Standard für den korrekten Belichtungswert für jeden Messmodus eingestellt.

Space


Antwort von Mediamind:

Ich bin im S&Q Modus durch Drehen des Rades, klaro. Das ist mal kein Verständnisproblem :-)
Und genau hier funktioniert die Wahl der Framerate nicht.

Space


Antwort von Axel:

Hier im Forum haben mW nur zwei Leute schon die Kamera, du und rp television. Das Handbuch ist, wie gesagt, Makulatur. Wenn du den Verdacht haben solltest, ein Montagsmodell erwischt zu haben, geh besser jetzt zu dem Fachhändler, der sie dir verkauft hat. Aber das glaube ich nicht, viele Dinge (wie z.B. S&Q) waren bei Sony noch nie super intuitiv.
Eine deutsche Review von heute lobt sogar ausdrücklich die Zebra-Funktion. Auch ein bislang übersehenes Feature: Man kann zwei Zebras gleichzeitig anzeigen lassen, die Streifen laufen gegensätzlich diagonal. Eines davon dediziert für per KI erkannte Haut. Wie cool ist das denn?

Space


Antwort von Mediamind:

Ich glaube nicht, dass es ein Montagsmodell ist und warte einmal ab. Ab dem 15. sollten laut Ankündigung weitere Auslieferungen kommen. Mal schauen, wer seine nun bekommt und ob andere auch Probleme mit den Zebras haben. Gestern war ich in der Kletterhalle und habe wirklich schönes Material von unserer Tochter und Freundin an der Kletterwand machen können. Die Zebras auf 75% entsprechen dann wie gesagt 95% in FCPX. Die beiden Sigmas (24-70 f:2.8 und 85 f:1.4) sind eine wirklich tolle Kombination. Ich glaube bei den nächsten Hochzeiten werde ich diese Kombi zu 90% verwenden. Das Arbeiten hiermit ist einfach super entspannt. Der active Stabilisierungsmodus arbeitet nicht auf dem Niveau meiner S1/Gh5 aber dafür natürlicher. Gerade bei 24 mm habe ich bei Panasonic S1 gerne einmal diesen deutlichen Schwingeffekt des Sensors an den Bildrändern, der das Bild schnell unbrauchbar machen kann.
Das Handbuch ist in der Tat schlecht. Einiges konnte ich zwar lösen, bei anderen Dingen hilft nur probieren. Ich habe z.B. redundante Aufnahme auf beiden Kartenslots eingestellt. Fehlt die 2. Karte, nimmt er nicht auf. Das kann man aber konfigurieren, dass er sich dann nicht weigert. Bei Panasonic blinkt einfach die 2. nicht vorhandene Karte rot und man nimmt trotzdem auf, bei Sony geht man erst einmal ins Menue. Heute habe ich das Museum Ludwig in Köln geplant, Samstag den Duisburger Innenhafen. So intensiv habe ich noch nie eine Kamera getestet.

Space


Antwort von rush:

Danke fürs berichten und ausprobieren - davon können sicherlich einige potentielle Käufer positiv von profitieren.

Sony hat in der Tat häufig etwas doppelseitige Funktionen die manchmal merkwürdig zu erreichen sind - da bleibt zu hoffen das sie entsprechende Punkte auch adressieren und fixen - was ja leider nicht immer der Fall bei den "kleinen" Alphas gewesen ist und dann unter Umständen erst im Nachfolgemodell gefixt wurde.

Ich hatte noch keine in der Hand und keine keine in Bestellung - werde sie mir aber bei Gelegenheit auch gern mal irgendwo ansehen.

Space


Antwort von Axel:

Schlechte Handbücher sind vierdimensionaler Schach. Gute würden die Youtube-Kameratutorials überflüssig machen, um deretwillen viele die Kamera kaufen.

Space


Antwort von Mediamind:

Das Video habe ich mir auch gerade einmal im Überflug angeschaut. Die dort dargestellte Dual-Zebra-Anzeige kann ich bei mir nicht finden. Auch im Handbuch steht dazu nichts. Merkwürdig...

Space


Antwort von Axel:

Mediamind hat geschrieben:
Das Video habe ich mir auch gerade einmal im Überflug angeschaut. Die dort dargestellte Dual-Zebra-Anzeige kann ich bei mir nicht finden. Auch im Handbuch steht dazu nichts. Merkwürdig...
Scheint ein "Osterei" zu sein. Vielleicht taucht das Zebra spontan auf, wenn man Ges b Multimess eingestellt hat (und der Bereich nicht durch >Zebra >Untergrenze >Strd+Bereich ausgegrenzt ist ...):

zum Bild


Ich will auf jeden Fall auch der AE eine Chance geben, wenn die schon so ausgefuchst ist.

Space



Space


Antwort von Mediamind:

Auf diesem Weg bekommt man keine weiteren Zebras. Das wäre für Gesichter nicht schlecht auch wenn ich Falsecolor für so etwas bevorzuge. Bezüglich der inkorrekten Zebras habe ich nun den Sony Support und den Händler parallel kontaktiert. Mit Zebras auf 75% stimmt die Anzeige des Clippingpoints recht genau. Wie beschrieben entsprechen die 75% an der A7SIII 95% am Ninja V und in FCPX.
Schade: man kann den Wechsel zu NTSC nicht auf einem Funktionsbutton registrieren. Ich benötige fürs getting ready und andere Gelegenheiten bei Tageslicht die 30p für einen leichten Slowmoeffekt. Geht auch über das Mymenue, wäre mir aber mit einem FN-Button lieber. Noch besser wären variable Framerates :-)
Das ist aber meckern auf höchstem Niveau. Mein erster Eindruck zur Stabilisierung bestätigt sich fortlaufend. Sie ist nicht so festgenagelt wie bei der S1 oder Gh5, dafür sieht das aber authentischer aus und die Bildränder wobbeln bei weitwinkligeren Aufnahmen nicht so unschön.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Schade: man kann den Wechsel zu NTSC nicht auf einem Funktionsbutton registrieren. Ich benötige fürs getting ready und andere Gelegenheiten bei Tageslicht die 30p für einen leichten Slowmoeffekt. Geht auch über das Mymenue, wäre mir aber mit einem FN-Button lieber. Noch besser wären variable Framerates :-)
Weil PAL und NTSC auf derselben Karte nebeneinander liegen dürfen (zum ersten Mal), *sollte* es klappen, NTSC und 30 p auf (Moduswahlrad) 1,2 oder 3 (Memory) oder M1,M2,M3 (Memories auf Karte) zu legen. Schon probiert?

Space


Antwort von Mediamind:

Hallo Axel, der Wechsel von PAL zu NTSC findet übergeordnet statt und wird nicht über die Profile für die 3 Speicherplätze gesteuert. Ich habe es gerade einmal ausprobiert. Stellt man NTSC ein, gilt das für alle Optionen in der Kamera. Ist nicht sonderlich schlimm, bei anderen Sonys ist das ja scheinbar ein Problem mit der SD Karte, die man dann nicht mehr im gemischten Betrieb verwenden kann.

Space


Antwort von Axel:

Hab sie heute gekriegt und die letzten vier Stunden damit rumgespielt. Trotz der vielen Tutorials, die ich gesehen habe, blicke ich vielleicht 20% durch. Der Autofokus ist ein sehr sauber kontinuierlicher, soviel steht schonmal fest: als ich mich langsam der Fensterscheibe mit den Regentropfen genähert habe, blieben die ohne zu pumpen permanent scharf. Aber wie schalte ich auf Unendlich? Draufpatschen nützt nix, da die Regentropfen überall auf der Scheibe sind. Naja, ich hab's geahnt, da gibt's noch viel zu lernen.
Sehr beeindruckend ist, worüber bisher höchstens am Rande jemand spricht, der AWB. Mit AWB Priority "Ambience" (im Gegensatz zu "White") und Shockless WB auf Stufe 2 ist Mischlicht anscheinend kein Problem, auch nicht, wenn man schwenkt.

Die nächste Woche widme ich SLog3, einstweilen dilettiere ich mit Standard. Witzig ist, dass die Kamera ootb auf "Movie" steht und dort auf den narrensichersten Automatikeinstellungen, wohl, um Frust zu vermeiden ...

Space


Antwort von Mediamind:

Prima dass es geklappt hat, Axel. Da gibt es eine Menge auszuprobieren. Ich habe die Kamera auf den Tag nun aeit 2 Wochen und jeden Tag etwas mit ihr veranstaltet. Vorgestern hatte ich ein Brautshooting im Außenbereich. Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten. Auch bei f:1.4 sitzt der AF super. Ich habe mit die Hauttöne im Vektorscope genauer angeschaut. Sie liegen perfekt auf dem Skinetonevector.

Space


Antwort von Mediamind:

Ich habe ein paar Tests zur Verwendung der Zebras gemacht. Die Zebras verhalten sich profilabhängig unterschiedlich. Da ich PP8 mit Slog3 s-Gamut3.cine verwende, habe ich getestet, ab wann das Clipping einsetzt. Die ist in FCPX beim Rohmaterial "gemessen" ca. bei IRE 87-88. Dies entspricht dann einem ander A7SIII eingestellten Zebra von 95%. Die für mich beste Einstellung des Zebras liegt bei C1 oder C2 auf 95% mit der Einstellung Strd+Bereich und +-2 als Bereichseinstellung. Bei FCPX existiert ein Lut für Slog3 s-Gamut3.cine. Dieser transformiert den Clippingbereich auf exakt 109 IRE. Das ist für REC709 nun nicht wirklich die beabsichtigte Zielhelligkeit von 100% Weiß. Mit dem von Sony herunter geladenen Slog3 s-Gamut3.cine Lut kommen die geclippten Bereiche wesentlich besser bei genau 99 IRE heraus. Geht man also mit der Zebraeinstellung wie oben beschrieben an den Start und bleibt ca. eine Blende unterhalb des Clippings ist alles fein. Warum der Lut in FCPX auf die 109 IRE heraus will, wissen FCPX Profis wahrscheinlich besser als ich. Ich verwende nun nur noch den Sony Lut, bis Leeming einen eigens für die A7SIII angepassten anbietet.

Space


Antwort von suchor:

Mediamind hat geschrieben:
Prima dass es geklappt hat, Axel. Da gibt es eine Menge auszuprobieren. Ich habe die Kamera auf den Tag nun aeit 2 Wochen und jeden Tag etwas mit ihr veranstaltet. Vorgestern hatte ich ein Brautshooting im Außenbereich. Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten. Auch bei f:1.4 sitzt der AF super. Ich habe mit die Hauttöne im Vektorscope genauer angeschaut. Sie liegen perfekt auf dem Skinetonevector.
Hast Du Fotòs od. Video gemacht?

Space


Antwort von Mediamind:

Ausschließlich video.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Zusammen mit dem 85er Art und dem AF ist das ein so entspanntes Arbeiten.
Ist das die neue Mirrorless-Version? Hätte mich auch sehr gereizt, aber das 85er 1.8 war das einzige Vollformat-Objektiv, was ich schon hatte, und es ist wirklich sehr okay.

Ich kaufte das Bundle mit dem 24er GM. Entsprach vom Bildkreis her dem Sigma 16mm bei APSC. Das testete ich mit Clear Image Zoom. Musste 1,2 x einzoomen, entspricht also jetzt etwa einem 19mm. Tja, was soll man sagen? Funktioniert. Ich bin mir nur nicht sicher, ob die Verzeichnung noch gescheit korrigiert wird, ich tippe auf nein. Schätze, ich verkauf Halbformat-Glas mit der A6500 zusammen, auch wenn's nicht mehr viel erbringt.

Will jemand unbedingt das Smallrig Cage? Hatte ich sofort gekauft, finde es aber total überflüssig. Für 20 € würd ich's verkaufen mit Paypal, Versand käm noch drauf (PN).

Weitere hastige Tests:
> Bluetooth-in-ear-Kopfhörer werden nicht erkannt (was ich schon gedacht hatte).
> Das Videobild über ImagingEdge und WiFi ist äußerst verzögerungsarm, jedenfalls wohl besser als >HDMI>WiFi-Transmitter ("RavenEye").
> Die großen Schluppen (á la Zacuto Eyepiece-Pümpel) passen prima über die original Suchermuschel. Ich weiß gar nicht mehr, woher ich meine momentane Mupfel habe, ich glaube, von der Billig-Sucherlupe von "Kamerar". Allerdings geht's wohl noch billiger: 7,39 € (es geht nur um das Gummi, die Lupe kann man glaube ich wegschmeißen).
Mediamind hat geschrieben:
Ich verwende nun nur noch den Sony Lut, bis Leeming einen eigens für die A7SIII angepassten anbietet.
Das werd ich mir nächste Woche in Ruhe ansehen.
suchor hat geschrieben:
Hast Du Fotòs od. Video gemacht?
Passend zum Thema Fotos: 12 MP reichen rechnerisch für einen Posterprint mit 150 dpi zwischen A3 und A2. Dazu braucht man keine A7R Dingenskirchen.


Aber ausgedruckt habe ich eh schon lange nichts mehr.

Space



Space


Antwort von MrMeeseeks:

Mir ist nicht ganz klar warum Sony der A7s III nicht einfach einen Pixelshift Modus verpasst hat. Andere viel billigere Kameras bieten das an und der IBIS der A7s gibt das sicherlich her.

Ein 48MP Bild mit solch riesigen Senseln hätte sicher was tolles.

Space


Antwort von Mediamind:

Habe ich mich auch schon gefragt. Pixelshift könnte in der einen oder anderen Situation hilfreich sein. @Axel: Ja, es ist die neue DGDN Version. Meine Frau und Tochter haben mich zum Geburtstag hiermit beglückt. Das ist für mich die Traumkombination. Ich libe die Kompaktheit und das Freistellungspotential. Mit dem Sigma Art 24-70 bin ich eigentlich komplett ausgestattet. Zusätzlich habe ich nun seit ein paar Tagen das 70-200 f:4 von Sony. Das Objektiv ist im Vergleich zu dem was ich sonst so schleppe einfach nur kompakt. Schade, dass die Preise für die Umrüstung bei Sigma so hoch sind. Ich würde gerne mein 105er f:1.4 auf E-Mount umbauen lassen. An L-Mount ist das zwar super aber der AF macht mir zu schaffen. Wie nett wäre das mit der Sony :-)

Space


Antwort von Axel:

Axel hat geschrieben:
Will jemand unbedingt das Smallrig Cage? Hatte ich sofort gekauft, finde es aber total überflüssig. Für 20 € würd ich's verkaufen mit Paypal, Versand käm noch drauf (PN).
Ihr werdet gleich sehen, was für Konsequenzen es hat, wenn man den Ebay-FAQ-Tip "Wie erziele ich das meiste Interesse für meinen Artikel?" aus wenigstem Interesse für solche Themen nicht gelesen hat:
https://youtu.be/yJJnsWAkY6Q?t=434

Genau das.

Meine eigenen Reviews würden immer das Haar in der Suppe finden, den Teufel im Detail. Das ist nicht, weil ich im Leben ein korinthenkackender Stinkstiefel bin, sondern weil ich Benutzerfreundlichkeit und durchdachtes Design besonders würdige.

Space


Antwort von Mediamind:

Die Smallrigg Cages sind mal gut und mal verbaut. Für die S1 gab es einen, bei dem auch der Batteriegriff aufgenommen wurde. Für mich war das interessant, weil ich längere Takes von bis zu einer Stunde immer mal wieder aufnehmen muss. Hierbei passte die Kamera nicht vernünftig in den Cage, ohne das man die Gurthalterung abbaut. Vollkommen schwachsinning und unnötig.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Die Smallrigg Cages sind mal gut und mal verbaut.
Mein A6500 Cage (es gibt mehrere Smallrig-Versionen) macht die Kamera tatsächlich kompakter, besser zu halten, praktischer, eben: benutzerfreundlicher.

Das/den Cage für die A7SIII hatte ich vor allem wegen der Gimbal-Grundplatte bestellt. Mit nur einem Stativgewinde unter der Kamera kann diese auf einem Gimbal leicht verkannten (hierbei egal, ob es Weebill S oder Ronin SC ist):

zum Bild

Darum habe ich extra einen Gewindeadapter in die vordere, größere Bohrung eingesetzt, um die Platte mit zwei Stativschrauben befestigen zu können. Das geht jetzt zwar (EDIT: denke, ich werde stattdessen anfangen, die Objektivstütze des Gimbals zur Ausrichtung zu benutzen, aber der Grund, warum das problematisch ist, zeigt sich in dem Bild oben: bei vielen Objektiven würde die Stütze genau auf dem manuellen Fokusring liegen - der Teufel liegt im Detail! EDIT 2: Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben), aber es zerstört komplett und unwiderruflich eine andere Eigenschaft der A7SIII: dass sie gut in der Hand liegt (zumindest in meiner). Ich benutze Manfrotto/Arca-Swiss-Platten gerne als Griff-Hilfe, um die Kamera vor's Auge zu halten. Bei der Pocket durch Einziehen einer Nylon-Handschlaufe:

zum Bild


zum Bild

Jetzt durch Drumlegen eines Stücks Moosgummi (einer von zwei Billigst-Fahrradgriffen, halbiert und aufgeschnitten):

zum Bild

Hier halt ich's mit rechts, da ich mit der anderen Hand das Handy halte, aber es geht sehr gut beidhändig. Die Kamera ist der reinste Handschmeichler ...

Space


Antwort von Mediamind:

Von einem Cage nehme ich bei der A7SIII erst einmal Abstand. Ich will sie maximal mobil und leicht haben. Mehr als ein TC Generator auf dem Blitzschuh werde ich nicht verwenden. Für schwerere Setups habe ich die Panas mit Cage und allem Gerödel incl. XLR Adapter.
Ich habe mir heute einmal die Farben näher angeschaut. Unter Verwendung des Colorcheckers von X-rite sind das die besten Vektoren, die ich an einer meiner Kameras gesehen habe. Die Vektoren sind ausgewogen und korrekt ausgerichtet, die Hauttöne haben scheinbar eine minimale Drift in Richtung YL. In der Praxis beim letzten Brautshooting waren sie aber exakt im erwarteten Bereich. Das Vectorscope wurde mit dem Sony Lut versehen. Ich meine, dass der Lut scheinbar den Green und Cyan Vektor minimal korrigiert. Das ganze schaut mit Lut so aus: Bildschirmfoto 2020-10-24 um 12.11.43.png

Space


Antwort von Axel:

Wenn ich nur den Sucher aktiv haben will, kein Problem. Ich klapp einfach das Display weg. Wenn ich nur das Display aktiv sein soll: Seite 43/49 (beiger Koffer) "Select Finder/Monitor". Damit habe ich C1 belegt, für"s Erste. Ich dachte, damit toggle ich die Präferenz manuell. Und in der Tat, drücke ich C1, wechselt die Anzeige vom Display auf den Sucher und bei nochmaligem Drücken zurück. Aber "Auto" scheint nicht wegschaltbar zu sein. Szenario: ich möchte durch Berühren eines Motivs auf dem Display einen neuen Fokuspunkt setzen (nebenbei gesagt bin ich von dieser Funktion total begeistert). Da ich Rechtshänder bin, schattet meine Hand dabei offenbar immer den Sucher ab. Die Kamera glaubt, ich will den Sucher benutzen und schaltet um. Bevor ich den Bildschirm berührt habe, wird dieser oft schwarz. Das muss einfach ein triviales Missverständnis sein. Eine Idee?

Space


Antwort von klusterdegenerierung:

Wow, ein farbiges Vektorskop, das könnte Resolve auch aufwerten.

Space


Antwort von Axel:

Auch, wenn hier keiner mehr mitliest, ein Zwischenbericht mit der Bitte um Korrektur:

Betrifft benutzerdefinierte Knöpfe und Schnell-Menus (über "FN" bzw. "My Menu" - hier ist der erste Punkt. Ich belasse die Gerätesprache in Englisch, weil Online-Tutorials und Reviews überwiegend englisch sind und weil die deutschen Übersetzungen der Funktionen noch grausamer sind). Ist es sinnvoll, wie Philip Bloom es macht, zahlreiche My Menus anzulegen, die wie die Hauptmenus kategorisiert sind?
Die Sony-Menus sind deswegen schlecht, weil sie verwirrend sind. Zuviel ist drin, und die Wege dahin sind mit der neuen Menustruktur vergleichbar mit Explorer-Dateipfaden. Es sind immer mehrere Klicks oder Wischbewegungen notwendig, um zu Potte zu kommen. Glücklich ist, wer Sonys "Logik" auswendig gelernt hat, sonst verbirgt sich zu oft hinter einer Abzweigung der Zonk statt der gesuchten Funktion.

> Also mache ich ein Benutzer-Menu mit maximal zehn direkt zugänglichen Einstellmöglichkeiten. Also einen zweiten FN-Knopf. Ich bin mir noch nicht sicher, ob ich auch eine C-Taste damit belegen will, denn C-Tasten gibt es immer zu wenig. Ich nehme halt die Funktionen, die nicht direkt mit einem Knopfdruck verfügbar sein müssen ...

> wie vor allem der "die Sony online-Hilfe"]AF/MF Control Hold :
Switches the focusing mode while the button is held down.
AF/MF-Steuer. halt. :
Der Fokussiermodus wird umgeschaltet, während die Taste gedrückt gehalten wird.
Ich habe diese Funktion auf den stets sehr gut erreichbaren roten Movie-Button gelegt (und den Aufnahmeknopf auf den traditionellen Auslöser, was nicht schlimm ist, weil auf Seite 39/49 in Zeile 5 der Nicht-Default "Different Set for Still/Mv" versteckt ist).

Wahrscheinlich winken einige gelangweilt ab, aber mit diesem Knopf gibt es einen kleinen Workaround für das, was slashCAM hier im Vergleich zur Canon bemängelte:
Gerne würden wir bei der A7S III eine ähnliche Implementierung wie bei Canon (R5/R6) sehen, wo während des AF-Facetrackings auch im Sucherbetrieb auf dem rückseitigen Touchdisplay der nächste (also noch nicht aktive) AF-Tracking-Punkt positioniert werden kann, der vom AF-System dann beim Loslassen des Touchdisplays fokussiert und getrackt wird* (eine sehr mächtige Kombination aus AF und manuellen Eingriffsmöglichkeiten). Die A7S III bietet zwar die bekannte Touch Panel/Pad Funktionen aber eine Neu-Positionierung des AF-Trackings im laufenden Face-Tracking-Betrieb scheint es nicht zu geben. Und zwar lässt sich im Sucherbetrieb der Fokuspunkt mit dem Joystick ("Multiselektor") verschieben. Am besten dafür geeignet ist aus mehreren Gründen das Fokusfeld "". Die Schärfeverlagerung ist permanent aktiv, es ist eine auf das Fokusfeld eingegrenzte Autofokus-Funktion. Das heißt, ich kann nicht vorab festlegen, worauf die Schärfe im nächsten Moment wandert. Das geht (bei mir) aber, wenn bzw. während ich die rote Taste gedrückt halte. Lasse ich die Taste los, erfolgt eine mehr oder weniger sanfte Überblendung (ich lasse "" auf der mittleren Position, das sieht gut aus, und wenn's lahmer sein muss, mach ich's besser von Hand). Ein Drücken des Multiselektors bewirkt standardmäßig ein Zentrieren des Fokusfeldes, wodurch "" zu einem "Center Fix" wird.

Die Fokusfelder habe ich als Durchblätterfunktion auf die Objektivtaste gelegt. Es ist schön, dass man zu exotische Fokusfelder hier ausblenden kann ("").

*Tja, Tracking. Bitte korrigiert mich, aber so, wie ich's verstanden habe, unterscheidet sich das Berührungs-Fokussieren auf dem Monitor von dem auf dem "Pad" (Sucher) dadurch, dass es automatisch getrackt wird. Während das mit dem Joystick anvisierte Motiv nicht getrackt wird. Das ist schade. Aber vielleicht habe ich etwas übersehen. Bitte aufgreifen!

Der manuelle Fokus ist im Sucher übrigens ein Kinderspiel. Wegen der phantastischen Auflösung reicht das dezenteste Peaking, um völlig sicher die Schärfe einzustellen. Einziger Nachteil ist, dass bei den für AF optimalen Objektiven die Fokuswege ziemlich kurz sind.

Zu den Codecs:
Ich schrie nicht seit Jahren, dass 100 Mbit für UHD zu wenig seien, um jetzt 100 oder gar 50 oder gar 30 in 10-bit zu benutzen, nur, weil's geht und weil ich die nächste CPU-Aufrüstungsrunde unterstütze. Deswegen hab ich HEVC erst gar nicht probiert, sondern nehme gleich das maximal schnittfreundliche All-I, auch, wenn Max Yuryev das für Speicherkartenverschwendung hält. Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen:


Zu SLog3 und dessen Belichtung:
Für mich ist das Platzieren einer Graukarte, wie Gerald Undone es empfiehlt, keine Option. Ich finde aber meine ersten Test total ermutigend, weil es prinzipiell nicht anders ist als mit SLog2 bei der A6500. So mach ich's jetzt noch (weil ich SLog3 intuitiv-visuell noch nicht völlig einschätzen kann, was ich bis Ende der Woche zu können beabsichtige):
> PP8, einzige Änderung: Detail - 2
> Shooting Mode " "
> Belichtungskorrektur (am "Hardware"-Rad) "+1,7" (Nun werdet ihr sagen, was nützt diese Exp-Comnp., wenn eh alles manuell ist? Nun, es ist nicht alles manuell, denn ich habe ...)
> Auto ISO
> Zebra 90 +/- 2

Aufgrund dessen wird mir an der Unterseite von Monitor/Sucher angezeigt, wie weit ich die Exp.-Comp. erreiche. Die Base-ISO von 640 blinkt, wenn sie verlassen werden muss, und die Skala zeigt mir an, ob ich drüber oder drunter bin.

Das führt zu 100% benutzbaren Bildern, die aber nicht gleichmäßig belichtet sind. Das wird erfahrungsgemäß mit Schulung des Augenmaßes immer besser.

Am Sonntag hatte ich Brandon Lis Standard probiert (obwohl es in diesem Kreativstil keine Minuswerte für Schärfe gibt ...)

zum Bild

... und zwar mit , und .

Fand ich ehrlich gesagt nicht so toll. Bis auf, wie erwähnt, AWB. Interessant ist, dass die Kamera (im Gegensatz z.B. zur A6500) bei automatischer Verschlusszeit die 180°-Regel erst bricht, wenn Blende und ISO zu extrem werden.
[quote=Axel hat geschrieben:

Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben.
zum Bild

Eine QR-Grundplatte von, weiß ich nicht mehr, Kaiser oder Cullman. In dem Loch für den Positionierungsstift (wenn das so heißt) ist ein Stativgewinde.

Space



Space


Antwort von Mantas:

Axel hat geschrieben:

....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...
scheint eher ein Premiere Problem zu sein.

Space


Antwort von Axel:

Mantas hat geschrieben:
Axel hat geschrieben:

....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...
scheint eher ein Premiere Problem zu sein.
Mag in diesem Fall so sein.

Nichtsdestotrotz wird beklagt, dass die Sony A7SIII ein Problem mit hässlich geglättetem Rauschen hat. Das ist so. Wie wahrscheinlich ist es, dass sich solche Klumpen durch temporale Kompression verbessern? Irgendwo muss der Codec ja ansetzen, um den Effizienzunterschied hinzukriegen. Ich finde 10 Mbps pro B/s (25 fps sind 250 Mbps) immer noch bescheiden und verstehe absolut nicht, warum für Leute, die sich ohne Not einen $15.000 MacPro kaufen, ein Euro fünfzehn pro Minute Video ein quersitzender Furz sind.

Ach, warte mal: die $15.000-Maschine will natürlich gefordert werden!

EDIT: Aber selbst die Edel-Käsereibe macht die Grätsche bei HEVC 10-bit 422. Ist einfach kein Standard. In PAL ohnehin nur verfügbar in 50 fps und 45 Mbps. Also empfiehlt der Max, 4:2:0 zu verwenden, um der Schnittfreundlichkeit willen.

Space


Antwort von cantsin:

Axel hat geschrieben:
EDIT: Aber selbst die Edel-Käsereibe macht die Grätsche bei HEVC 10-bit 422. Ist einfach kein Standard. In PAL ohnehin nur verfügbar in 50 fps und 45 Mbps. Also empfiehlt der Max, 4:2:0 zu verwenden, um der Schnittfreundlichkeit willen.
Das ist dann aber echt ein Apple- (bzw. AMD GPU-) Problem. Bei der Kombination Resolve + Nvidia 1080Ti läuft das 4:2:2-Material der Kamera butterweich.

Space


Antwort von MrMeeseeks:

Mantas hat geschrieben:
Axel hat geschrieben:

....Umso größer meine Häme darüber, dass zumindest einer etwas gefunden hat, was überdeutliche Kompressionsartefakte zu sein scheinen
...
scheint eher ein Premiere Problem zu sein.
Er schreibt sogar selber als Ergänzung unter seinem Video folgenden Kommentar

"Update: when I open the file with the windows "movie & tv" application that blurry line is gone. This seems to prove that the camera is not the problem. I tested the file on another computer I have in Premiere and it created the same line. Maybe this is something Adobe can fix? I wonder why it's messing up for me but not other people in Premiere. I'll keep looking into this and will come back when I have more answers."

Und dennoch löscht er das Video nicht oder ändert zumindest den Titel. Noch immer heißt es.

"Something is wrong with my Sony A7S III"

Diese ganzen Clickbait Penner sind echt nicht zu ertragen.

Space


Antwort von Axel:

MrMeeseeks hat geschrieben:
Diese ganzen Clickbait Penner sind echt nicht zu ertragen.
Er hätte ein " - solved!" in den Titel setzen können, das stimmt schon. Ansonsten ist der Typ voll okay, immer wieder kontroverse Foto-Themen, die nicht *nur* Clickbait sind.

Space


Antwort von Axel:

Axel hat geschrieben:
"slashCAM"]Gerne würden wir bei der A7S III eine ähnliche Implementierung wie bei Canon (R5/R6) sehen, wo während des AF-Facetrackings auch im Sucherbetrieb auf dem rückseitigen Touchdisplay der nächste (also noch nicht aktive) AF-Tracking-Punkt positioniert werden kann, der vom AF-System dann beim Loslassen des Touchdisplays fokussiert und getrackt wird* (eine sehr mächtige Kombination aus AF und manuellen Eingriffsmöglichkeiten). Die A7S III bietet zwar die bekannte Touch Panel/Pad Funktionen aber eine Neu-Positionierung des AF-Trackings im laufenden Face-Tracking-Betrieb scheint es nicht zu geben. *Tja, Tracking. Bitte korrigiert mich, aber so, wie ich's verstanden habe, unterscheidet sich das Berührungs-Fokussieren auf dem Monitor von dem auf dem "Pad" (Sucher) dadurch, dass es automatisch getrackt wird. Während das mit dem Joystick anvisierte Motiv nicht getrackt wird. Das ist schade. Aber vielleicht habe ich etwas übersehen.
Meine Nasenspitze wies mir unversehens den Weg. Ich hatte den Monitor nicht nach hinten geklappt (ist eh ein Schutzglas davor), als ich durch den Sucher sah. Plötzlich tauchte ein orangefarbenes Kreuz im Bild auf, das eine Sekunde später durch einen wild zappelnden Trackingrahmen ersetzt wurde, der meine Sprudelflasche trackte.

Ich probierte es aus. Beim Blicken durch den Sucher (und mithin bei nicht leuchtendem Monitor, es ist ja eine Entweder-Oder-Funktion) erzeugt das Berühren des Monitors (und das Belassen der Nase resp. Fingerspitze an dieser Stelle) das Erscheinen eines orangen Fadenkreuzes im Sucher. Dieses Kreuz lässt sich (ohne Loszulassen, wohlgemerkt) frei verschieben, egal, welches Fokusfeld gerade aktiv (und noch gültig) ist. Das Loslassen des Monitors aktiviert ein Fokustracking des zuletzt vom Fadenkreuz bedeckten Motivs.

Eine erneute Berührung des Monitors erzeugt - bei noch laufendem Tracking - ein zweites Fadenkreuz. Erst, wenn man dieses wiederum loslässt, überblendet die Schärfe zum neuen Motiv. Abgebrochen wird das Ganze durch Drücken des Joysticks (der Default: "". Der Abbruch ist allerdings nicht sehr elegant, es sei denn, man hat vorher bedacht, dass dieselbe Taste gleichzeitig das Fokusfeld zentriert (solange man's nicht umprogrammiert).

Die deutsche Hilfe erwähnt, dass es besser ist, die Berührungsfunktion zu sperren, damit man nicht beim Blicken durch den Sucher versehentlich mit der Nase einen neuen Fokuspunkt aktiviert (wie es mir passiert ist). Nur die englische Version formuliert es verständlich:
When shooting with the monitor, touch the subject to focus.
When shooting with the viewfinder, you can move the position of the focus by touching and dragging on the monitor while looking through the viewfinder. Es geht also.

In >Menu >44/51 >Touchpad-Settings führt Touch Postion Mode: Absolute Position dazu, dass das neue Fadenkreuz an der (nicht besonders präzise zu treffenden) Stelle erscheint, an der der Finger den schwarzen Monitor berührt. Relative Position lässt das Kreuz immer dort erscheinen, wo gerade getrackt wird. Ich empfehle dieses, weil es intuitiver ist.
[quote=Axel hat geschrieben:

Jetzt weiß ich's! Ich werde irgendeinen nutzlosen rechteckigen Block mit der zweiten Schraube vor die Unterkante des Kamerabodies schrauben.
zum Bild
Axel hat geschrieben:
Eine QR-Grundplatte von, weiß ich nicht mehr, Kaiser oder Cullman. In dem Loch für den Positionierungsstift (wenn das so heißt) ist ein Stativgewinde.
Das funktionierte nur zufällig mit dem 35mm f1.8, das etwas schlanker ist. Das fette 85mm passt nicht drauf. Ich muss die Platte in der Mitte durchsägen ...

Space


Antwort von Mediamind:

Ich habe meine ersten Versuche mit Raw gemacht. Einen vernünftigen Workflow, um damit vergleichbar gutes Material zu machgen wie in SLOG 3 sehe ich in FCPX noch nicht. Mal schauen, ob hier auf Slashcam etwas hierzu erscheint, die Redakteure sind über das Thema auch gestolpert. Die dunklen Partien rauschen kräftig mit Raw. Diese Mamutfiles mag ich mir nicht mit einem Denoiser antun.

Space


Antwort von Axel:

@mediamind
Du wirst ja bezüglich PRAW und des FCPX-Workflows (während des Lockdowns wird es wohl FCPXI. Wie spricht man das? Elf? Eleven? eggs-eye? Wie der Diktator von China?) von allen Hunden gehetzt sein und weißt bereits,
>dass man idealerweise eine LUT benutzt, um PRAW zu normalisieren. Es muss keine SLog3-LUT sein, es muss noch nicht einmal eine Sony-LUT sein.
>dass man sich den Zinnober hätte gut sparen können, wenn die Metadaten verfügbar wären (aber Sony hat das nicht für nötig gefunden).
>dass es falsch ist zu sagen, PRAW rauscht mehr als Dingenskirchen oder zum Beispiel SLog3.
>dass die Sony A7SIII-Bord-Codecs XA-xxx nolens volens eine Rausch-Glättung anwenden, die total unattraktiv ist.
>dass man selbst bei der Canon EOS R5 quasi vom noise floor essen kann im Direktvergleich.
>dass Philip Bloom eine Woche lang Tag und Nacht ohne Schlaf damit verbracht hat, PRAW in FCP mit Neat-Video vom extremen Rauschen zu befreien.
>dass dieses Rauschen dennoch dem verknasten Lowlight-Zeug von den Karten ästhetisch vorzuziehen war.
>dass es deswegen strittig ist, ob man die A7SIII als Lowlight-Kamera bezeichnen darf. Oder vielmehr,
>dass es sehr wohl eine Ultra-Lowlight-Kamera für billig aussehendes Video ist, aber nicht gleichzeitig eine "cinema camera".
>dass man den Rauschgrund nicht mit aufnehmen soll und deshalb tendenziell überbelichten.
>dass der ideale Überbelichtungswert für SLog3 (und damit auch für PRAW!) 1 2?3 Blenden (sprich: "+1,7") ist für eher dunkle Aufnahmen.
>dass man sich mit dieser Überbelichtung bei sehr hellen Aufnahmen in's Clipping begibt und
>dass man deswegen in Highkey-Situationen nach Herzenslust unterbelichten darf (zum Schützen der Highlights), aber
>dass die Dynamik, hat man erstmal eine gute SNR sichergestellt, sehr gut ist und
>dass die Kamera nach "oben" hin eine Menge verzeiht, so-
>dass ETTR mit Zebras einen satten Headroom haben kann.

Für mich würde sich die Frage PRAW oder nicht gar nicht stellen, wenn es intern wäre. Aber wenn ich ein ehrfurchtgebietendes Rig hätte bauen wollen, wäre es wohl besser die BMP6k gewesen. Neuerdings dank Lidar mit rudimentärem Autofokus (den man aber mit Geld und zusätzlichem Rig-Gedöns und Gewicht bezahlt). Hier ist einer mit Fischertechnik-Faszination unterwegs:

Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera". Der momentane Stand der Dinge, was Support für PRAW betrifft, zwänge mich zu SLog3 in 16-bit (nix dagegen), aber auch zum Kaufen und Mitschleppen des Ninjas. Der Kompaktfaktor ist damit futsch.

Space


Antwort von Funless:

Axel hat geschrieben:
Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera".
Wie definierst du denn für dich persönlich "cinema camera" wenn ich fragen darf.

Space



Space


Antwort von Axel:

Funless hat geschrieben:
Axel hat geschrieben:
Ich will es kompakt und trotzdem "verdammt nah an einer cinema camera".
Wie definierst du denn für dich persönlich "cinema camera" wenn ich fragen darf.
Ich mag schöne Bilder. Ich bin mir aber bewusst, dass daran die jeweilige Kamera nur zu etwa 5% einen Anteil hat (Zahl aus der Luft gegriffen). Aus irgendeinem Tutorial habe ich diesen Screenshot gemacht:

zum Bild

... und ihn "Filmkunst" genannt. Weil ich mal eine tolle Buchreihe hatte, die "Filmkünste" hieß, und von denen jedes Buch den oben gezeigten Beiträgern gewidmet war.

Meine ganz persönliche cinema camera ist die, die mir erlaubt, mich auch auf diese anderen Aspekte zu konzentrieren. Interessanterweise kommt die Kamera nur mit "Bildrate" zu Würden, das ließe sich natürlich noch weiter aufschlüsseln. Aber die Slomo-Funktionen sind mir schon wichtig.

Wie es in einer heute hochgeladenen Review von F-Stoppers heißt: kein noch so erfahrener Focuspuller kann so zuverlässig fokussieren wie die A7SIII. Der Touchfokus ist nach Sonys eigener Ansicht eher eine andere Version des manuellen Fokus: ? Berühren Sie das Motiv, auf das Sie fokussieren wollen, vor oder während der Aufnahme.
• Wenn Sie das Motiv berühren, wird der Fokussiermodus
vorübergehend auf Manuellfokus umgeschaltet ... lediglich das Tracking und die Präferenz für Gesichter und später für Augen sind Automatik-Funktionen.

Es ist keine Lowlight-Kamera, aber eine Kamera, die den Aspekt Beleuchtung stark vereinfacht, insofern, dass man mit existierendem Licht viel weiter kommt als mit anderen Kameras. Man darf nur nicht per Kamera heller machen wollen.

Ich will mich um weniger kümmern müssen und trotzdem technisch annehmbare und ästhetisch nicht abstoßende Aufnahmen bekommen. Obligatorischer Kubrick-Spruch: "Ein Bild ist eine Aufnahme (recording) eines Bildes."
Das Bild existiert vor der Kamera. Weiterer Kubrick-Spruch: "Wenn etwas interessant ist, ist es fast egal, wie es gefilmt wurde."

Space


Antwort von pillepalle:

Vielleicht muss man sich auch einfach mal von dem Gedanken lösen das 'die Kamera' das 'Kinobild' macht. Unterbewusst weiß das vermutlich auch jeder, aber trotzdem glaubt man oft mit der neueren/besseren Kamera auch automatisch bessere Filme machen zu können. Das stimmt eben nur sehr bedingt.

VG

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
Der Kompaktfaktor ist damit futsch.
Naja, jetzt übertreibst Du aber ein bisschen.

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Der Kompaktfaktor ist damit futsch.
Naja, jetzt übertreibst Du aber ein bisschen.
Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.

Und was bringt das Rig überhaupt? Ich kann mit der Kamera alleine und Steady Shot jede noch so statische Stativaufnahme simulieren, und beweglicher bin ich auch. Meine eigenen Arme sind das Rig, gern unterschätzt. Active Steady Shot mag nicht reichen, um Schritte auszugleichen, aber ich kann damit jeden Verfolgerschwenk aus der Hand (besser: aus dem Oberkörper) machen.

Das zum Beispiel war das Problem mit der A6500. Aus der Hand sehr schwierig. IBIS zu schlecht, und Rolling Shutter das Alleinstellungsmerkmal. Aber auch da bastelte ich kein (richtiges) Rig, denn:

Auf einem Einbeinstativ und natürlich auf einem Gimbal ist fast alles möglich.

Space


Antwort von pillepalle:

Axel hat geschrieben:

Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.
Natürlich wirkt das offizieller. Aber wenn man einen Job macht ist das ja auch nicht schlimm. Ich möchte doch niemanden 'heimlich' oder gegen seinen Willen filmen? Ich weiß jetzt auch nicht welches Rig Du konkret meinst, aber so viel schwerer zu handeln ist das dann eigentlich nicht. Hat sogar ein paar Vorteile. Der Nachteil ist eben die längere Setup-Zeit. Klar, wenn ich nur den Body mit Optik aus der Tasche ziehe, bin ich schneller als wenn ich erst noch an der Kamera herum riggen muss. Bei mir ist die Lösung dafür einfach eine größere Tasche (Rollkoffer). Da kann man dann auch praktisch die fertig geriggte Kamera transportieren. Aber ich verstehe schon das vielen diese 'Kompaktheit' wichtig ist.

VG

Space


Antwort von Axel:

pillepalle hat geschrieben:
Ich weiß jetzt auch nicht welches Rig Du konkret meinst, aber so viel schwerer zu handeln ist das dann eigentlich nicht.

zum Bild

Nun, es ist ~1,5 x so schwer wie Kamera plus Objektiv, nämlich 1581g (vorausgesetzt, man benutzt für den Ninja NPF750, was wohl die typische Größe dafür ist). Den Magic Arm und sowas habe ich schon weggelassen. Was ich auch gar nicht verstehe ist, warum man einen Immerdrauf-Zoom anstatt zwei oder drei Primes nimmt. Tut sich von Preis/Qualität her nicht viel, sogar eher umgekehrt: selbst billigere Primes sind oft deutlich besser als der Zoom es bei ihrer jeweiligen Brennweite ist. Vor allem sind sie leichter.

Ist für mich so ein bisschen wie die Wahl zwischen Fiesta und Hummer, um, sagen wir mal, von A nach B zu kommen.

Space


Antwort von Funless:

pillepalle hat geschrieben:
Axel hat geschrieben:

Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.
Natürlich wirkt das offizieller. Aber wenn man einen Job macht ist das ja auch nicht schlimm. Ich möchte doch niemanden 'heimlich' oder gegen seinen Willen filmen?
Wenn ich ältere posts von Axel richtig in Erinnerung habe, dann filmt er mittlerweile keine Jobs mehr und daraus resultierend ist all das was er mit seiner A7SIII filmt privater Natur (Bitte korrigiere mich Axel, falls ich mich täusche). Jedenfalls wenn du private Aufnahmen (insbesondere im öffentlichen Raum) machst, dann ist jegliches Zusatzgeraffel an der Kamera äußerst aufällig, da recht schon ein Mikro auf der Kamera um unangenehme Reaktionen von irgendwelchen Leuten hervorzurufen. Ist halt leider so.

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
klusterdegenerierung hat geschrieben:

Naja, jetzt übertreibst Du aber ein bisschen.
Ich hab das meiste von dem Stuss, den er verbaut, tatsächlich hier rumfliegen. Ich könnt's jetzt zusammenbauen. Gehe ich damit auf die Straße? Mache ich Aufnahmen damit? Irgendwie eher nicht. Mit so einem Rig, so relativ kompakt du es vielleicht findest, wird alles sehr offiziell, um nicht zu sagen offiziös. Die Leute sehen, aha, der ist angelegentlich hier. Das signalisiert man.

Und was bringt das Rig überhaupt? Ich kann mit der Kamera alleine und Steady Shot jede noch so statische Stativaufnahme simulieren, und beweglicher bin ich auch. Meine eigenen Arme sind das Rig, gern unterschätzt. Active Steady Shot mag nicht reichen, um Schritte auszugleichen, aber ich kann damit jeden Verfolgerschwenk aus der Hand (besser: aus dem Oberkörper) machen.

Das zum Beispiel war das Problem mit der A6500. Aus der Hand sehr schwierig. IBIS zu schlecht, und Rolling Shutter das Alleinstellungsmerkmal. Aber auch da bastelte ich kein (richtiges) Rig, denn:

Auf einem Einbeinstativ und natürlich auf einem Gimbal ist fast alles möglich.
Und was spricht dann gegen eine Kamera mit Objektiv?

Space


Antwort von pillepalle:

@ Funless

Stimmt schon, aber so gesehen darfst Du dann noch nicht mal ein vernünftiges Stativ benutzen. Damit ist man ja dann schon quasi der Vollprofi :)

VG

Space



Space


Antwort von Axel:

@Funless
Als Hochzeitsfilmer ("Job" ist übertrieben) war ich eine Ein-Mann-Band. Da schleppte ich auch absolut nichts Überflüssiges mit. Wenn ich (wie mein bester Kumpel) Profi wäre, würde ich unter einer FS7/FX9 nichts an den Start bringen. Aus Gründen der dicken Hose einerseits, andererseits, weil ich mindestens einen Assi hätte, i.d.R. mehr. DV Rebel, Rungunshooter (Brandon Lis früherer Avatar), das sind so die Bezeichnungen, die mir sympathisch sind.

Ich finde das o.e. Rig "schön", aber aus kindlicher Freude an sinnbefreiter Haptik, aus Spieltrieb. Ursprünglicher Berufswunsch war Lokführer - wir wohnen an einem Bahndamm hinter einem Stellwerk, und es lag eine Menge schwerer Metallschrott rum. Die mechanische Filmtechnik war auch so ein Faszinosum, monströse Metallmaschinen spuckten filigrane Licht-Schatten-Spiele aus. Industriebracken sind für mich pittoresker als verfallene Dracula-Schlösser.

Was hat das alles mit "kompakt" zu tun?

Ist für mich die einzige Erklärung für solche Rigs, da die Kamera (bis auf Raw) alles intern - und besser! - macht, was diese teuren Helferlein machen sollen.

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
Was hat das alles mit "kompakt" zu tun?
Wie gesagt, was spricht gegen die Cam mit Objektiv?
Für quasi Hobby braucht man auch kein Raw, einen kleinen Tod muß man eben sterben.

Space


Antwort von pillepalle:

@ Axel

Vollkommen richtig. Meine Kamera kann das allerdings nicht intern und selbst wenn sie es intern könnte, ist mir ein halbwegs vernünftiges Monitoring vor Ort schon wichtig. Einfach damit ich genau beurteilen kann was ich mache. Hab' sogar in irgendeinem Video gesehen, das das Display der Sony noch kleiner ist als das der Z6. Für mich wäre das nix, außer vielleicht am Gimbal, oder an einer Drohne. Aber sind eben auch andere Anwendungen. Von da her kann ich Dich gut verstehen.

VG

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Was hat das alles mit "kompakt" zu tun?
Wie gesagt, was spricht gegen die Cam mit Objektiv?
Nichts, aber das sag ich doch.
pillepalle hat geschrieben:
@ Axel

Vollkommen richtig. Meine Kamera kann das allerdings nicht intern und selbst wenn sie es intern könnte, ist mir ein halbwegs vernünftiges Monitoring vor Ort schon wichtig. Einfach damit ich genau beurteilen kann was ich mache. Hab' sogar in irgendeinem Video gesehen, das das Display der Sony noch kleiner ist als das der Z6. Für mich wäre das nix, außer vielleicht am Gimbal, oder an einer Drohne. Aber sind eben auch andere Anwendungen. Von da her kann ich Dich gut verstehen.
Als Kronzeuge gegen die Rigger der Tafelrunde wäre ich eine Fehlbesetzung. Beweis: Schrauben- und Scharniere-Sammelzwang. Allerdings besaß ich schon drei, nein, sogar vier externe Monitörchen (smallHD Focus gerade verschenkt). Keines davon hatte ich je bei einer Hochzeit dabei. Ballast. Dienten nur zum Testen ihrer selbst. Das ist kein verächtlicher Daseinsgrund für so einen Bildschirm, denn Testen, mit Technik rumspielen, zaubert so manchem ein Lächeln ins Gesicht und flutet die Welt mit Harmonie-Pheromonen. Demgegenüber ist das fahrige Draufgucken bei einem "Dreh" zur Kontrolle von Bildausschnitt und Schärfe profan. Konzentration auf das Visuelle fördern die Dinger sowieso nicht.

Ja, das Klappdisplay der A7SIII ist ziemlich klein. Fällt unter die Kategorie "erstaunlich gut". Dann und wann kommt einem ein gutes Display zupass. Aber ich bevorzuge Sucher. Der gute Sucher war wahrscheinlich das Zünglein an der Waage für die Kaufentscheidung. Damit kann ich "genau beurteilen kann was ich mache." Display ist tatsächlich nur zur Bildausschnitt-Kontrolle, wenn der EVF nicht zugänglich ist. Aber das ist er - ich hab's schon mal beschrieben - sogar auf einem Gimbal.

Space


Antwort von pillepalle:

@ Axel

Ja, wie gesagt - Hochzeitsfilme sind eine andere Baustelle. Bei mir geht's aber eben oft auch um weniger 'profane' Dinge, um mal Deine Ausdrucksweise zu verwenden (für Kadrage oder Fokus). Da ist das Beurteilen von den Details (Licht, Überschneidungen, ect) auch wichtig. Und abgesehen davon, möchte ein Kunde oder AD auch lieber ein noch besseres Monitoring. Überlege schon fast mir zusätzlich noch einen 7" Monitor mit billig Funkstrecke zu besorgen, um nicht immer deren kalten Atem im Nacken zu spüren 😅

Bei Hochzeiten hat man als Filmer ja weitestgehend seine Ruhe.

VG

Space


Antwort von klusterdegenerierung:

Was ich auch empfehlen kann ist, eine kleine Handyhalterung oben auf dem Hotschuh des Manitoes und ein Handy drüp.
Das funzt erstaunlich gut und mit der neuen Camoodoo app ist das echt nice und das delay kaum der Rede wert.

Aber natürlich mit schwenkgelenk, dann kann man das handy richtig flach übers Objektiv klappen und ist kaum sichtbar und aus der Hüfte der Hit.
Hab ich auch schon so genutzt und ist der neue heiße scheiß. :-)

Space


Antwort von Mediamind:

Zum Thema Dual-Zebras: Das war eine Fehlinformation. Der YTer hat das revidiert. So gut die Idee ist, bei der A7s III ist dies nicht implementiert.
Zum Thema Cage: Der Vorteil der Kamera liegt in der Hand (wörtlich). Kompakt, leicht, schnell im Einsatz...Ein Cage verbessert die Handhabung nicht. Bei der S1 oder eine GH5 mit XLR-Adapter, Timecodegenerator, NTG3 und ggf. dem Ninja sieht das anders aus. Die habe ich vor dem Dreh konfiguriert und dann ab auf das Stativ. Das ist nichts, was ich durch die Gegend schleppen mag. Auch bei einem minimalistischen Rigg sehe ich keine Vorteile (für mich).
Selbst mit dem f4er 70-200 von Sony ist die A7S III super handlich. Das kenne ich von der S1 in selber Ausstattung anders....

Space


Antwort von Axel:

Tilta (die mit dem Kühlaggregat für die Canon R5, die aber softwaremäßig auf Selbstverbrennung programmiert ist) haben ein fetziges A7SIII-Cage-Video hochgeladen, das das Kind im Manne kitzelt. Passend zum martialischen Geschraube habe ich kürzlich auch einen Camouflage-Skin gesehen:


Space


Antwort von Mediamind:

Das ist kein Cage sondern ein außerirdischer Transformer. Gute Tarnung :-)
Ich denke der Preistag für den Cage liegt dann bei recht vernünftigen 4199€.

Space



Space


Antwort von Mediamind:

Zu Catalyst Browse: Es geht auch mit Sigma Art Linsen. Ich habe mit dem 85er 1.4er und dem 24-79 f:2.8 aus der Hand gefilmt und die arme Ehefrau gestalkt. Das unbehandelte Material ist total verwackelt, das "gyroscopierte" ist stabil. Und ich habe richtig bei der Aufnahme gewackelt...
Ich habe mit 1/50 aufgenommen, Brandon L. hatte ja darauf hingewiesen, dass ein kurzer Shutter erforderlich ist. Das Ergebnis ist mit 1/50 super stabil, wenn dann aber zuviel Bewegung zu kompensieren ist, schlägt die BEwegungsunschärfe zu und für kurze Augenblicke ist das Bild unscharf. War ja auch so zu erwarten.

Space


Antwort von Axel:

Brandon Li sagt in seinen Ronin S/SC 2 -Reviews, dass man mit Gimbal verwacklungsarm genug ist, um Gyro auch mit proportionalem Shutter zu verwenden (Timestamp):
https://www.youtube.com/watch?v=FrsWAqTia0A&t=502s

Auch hier sieht man wieder das Smartphone als externen Monitor. Wie bereits erwähnt, man kann sich das "Pro"-Paket sparen mit der A7SIII (ich spar mir den ganzen Gimbal, bin eher ein Zhiyun-Typ). Sowohl, was den neuen AF mit Lidar als auch, was die WiFi-Übertragung mit Raven-Eye betrifft, denn die Latenz mit dem kostenlosen ImagingEdge ist wirklich minimal ...

Space


Antwort von klusterdegenerierung:

Lauf hier wohl mal wieder im Tarnkappenmodus rum, was solls.

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Lauf hier wohl mal wieder im Tarnkappenmodus rum, was solls.
Nein, tust du nicht. Ich merkte nur bereits an, dass es (anscheinend) keine iOS-Version gibt.

Space


Antwort von klusterdegenerierung:

Das meine ich nicht, ich spreche permanent hier über das Thema Sony Wifi etc. aber drauf eingegangen wird da bei mir nicht.

Space


Antwort von Mediamind:

Ist nicht böse gemeint aber da bin ich z.B. noch gar nicht. Ich teste intensiv erst einmal die Basics und für mich relevanten Dinge. Wifi ist bei mir erste einmal weit hinten in der Liste. Die Kamera mit Gimbal und ohne internen Stabi, dafür aber gyrostabilisiert, dass ist für mich die heiße Sch****.

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Das meine ich nicht, ich spreche permanent hier über das Thema Sony Wifi etc. aber drauf eingegangen wird da bei mir nicht.
Du meintest Camoodoo, oder?
Mediamind hat geschrieben:
Ist nicht böse gemeint aber da bin ich z.B. noch gar nicht. Ich teste intensiv erst einmal die Basics und für mich relevanten Dinge. Wifi ist bei mir erste einmal weit hinten in der Liste. Die Kamera mit Gimbal und ohne internen Stabi, dafür aber gyrostabilisiert, dass ist für mich die heiße Sch****.
Ich schaffe es gar nicht, so viele Sachen auf einmal zu testen.

Anscheinend hat Sony auf Philip Bloom und auf die Katzenfans (inklusive mir, ich spendete auch) mit ihrer Petition gehört, denn Face/Eye Subject: Animal trackt ganz offensichtlich auch die Augen unserer Miezen. Ging noch nicht mit den Vorserienmodellen.

Space


Antwort von klusterdegenerierung:

Nein ich spreche ständig über Wifi/Sony/Gimbal/follow focus Szenarien Test und eigen Erfahrungen und Du eigentlich auch, aber interessanterweise gehst Du auf meine Lösungsansätze die genau in Deinen Interessenbereich fallen nicht ein, wer weiß, vielleicht übersiehst Du sie als vielschreiber.

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Nein ich spreche ständig über Wifi/Sony/Gimbal/follow focus Szenarien Test und eigen Erfahrungen und Du eigentlich auch, aber interessanterweise gehst Du auf meine Lösungsansätze die genau in Deinen Interessenbereich fallen nicht ein, wer weiß, vielleicht übersiehst Du sie als vielschreiber.
Was ich für die A6500 alles für Zubehör angeschafft habe! Schlechtes Monitoring (für Gimbals), da Display bei UHD stark gedimmt wurde, schlimmer Rolling Shutter, nur unter guten Bedingungen brauchbarer AF, die kürzeste Akkulaufzeit, die ich erlebt habe, schlechter als die der Ur-Pocket. Die Kompensation für diese Schwächen war der ganze Gimbal-, Rigging- und Monitoringkram (angefangen sogar bei einer VR-Brille!). Danke Sony für diesen Tamagotchi von einer Kamera! You love the prodrigal son the most.

Jetzt? Gutes Monitoring (es gibt den Akkufresser "Sunny Weather"), je nach Beanspruchung so knapp zwei Stunden Akku (oder praktisch unendlich durch eine schnöde über USB-C verbundene 20€-Powerbank), praktisch kein Rolling Shutter mit zusätzlich sehr brauchbarem IBIS, extrem guter AF.

Mein Traum war schon vor ungefähr zwanzig Jahren extremer sDoF in einer "Plansequenz" (Glidecam, heute Gimbal), bei der ich dennoch den Fokus manuell bestimmen konnte, also "shot transitions". Mätzchen? Gewiss. Ich baute schlecht funktionierende mechanische Remote-Follow-Fokusse aus Fahrradbremsen und später schlecht funktionierende elektrische aus Modellauto-Servomotoren.

All das kann ich seit einer Woche ohne Zusatzgedöns. Wenn ich will bei existing light. Wenn ich will in 4-facher oder 8-facher Zeitlupe. Wenn ich meine, es zu brauchen, kann ich mein Telefon direkt mit der Kamera koppeln und das Bild kontrollieren und sogar die Schärfe ziehen, buchstäblich mit der Fingerspitze. Plötzlich funktioniert alles.

Ich weiß nicht mehr, wer das gesagt hat, Aleister Crowley? Das Problem mit der Magie ist, dass sie nicht funktioniert. Jedenfalls ist da was dran. Wenn etwas funktioniert, haben wir ein Gerät. Etwas, das eine Funktion umsetzt, einen Hammer.

Alles Unfertige hat dagegen etwas Magisches. Die Stützung der chinesischen Wirtschaft durch Ankauf weiterer unfertiger Pseudolösungen ist so eine Art Ablasshandel. Für die Sünde der Unkreativität.

Jetzt halte ich also einen Hammer und suche den Nagel. Ist dies etwa das Ende der Next Camera Disorder? Da lachen ja die Hühner.

Space



Space


Antwort von klusterdegenerierung:

Also persönlich sprach ich nur von meinen Erfahrungen mit der Combi Alpha und Handy und wie gut das funzt und was daraus alles resultieren kann, trotzdem wird da kaum drauf eingegangen und alle brechen sich aber einen mit Kabel und Moni ab und erwähnen dann und wann mal das die Combi Handy Sony (Gimbal/Sony/Handy) ja auch gehen soll, punkt, als wenn ich hier noch nie darüber geschrieben hätte wie gut das geht und welche Möglichkeiten das eröffnet.

Dann kommt ein brendon daher und plötzlich regt sich was, aber so wirklich auch nicht, obwohl dies sogar die meißten Probleme und Notwendigkeiten einer hier besprochenen Cage Lösung zerschlagen würde.

Manchmal frage ich mich, ob man hier nur des Diskutierens wegen diskutiert und garkeine Lösung wünscht?
Wäre ja auch schön blöd, so hätte man ja nix mehr zum quatschen. ;-)

Space


Antwort von Mediamind:

Ich glaube, es ist einfach schlichter. Bei der A7SIII habe ich bisher kein Verlangen nach zusätzlichem Equipment wie Apps, Smartpohnesteuerung, Cage.... In der Vergangenheit hatte ich die App "Fieldmonitor" im Einsatz. Irgendwie ist das alles nicht so erforderlich. Person tracken und das war es. Der AF ist einfach eine andere Nummer. Das Bedürfnis, einzugreifen ist meinem Dafürhalten nach deutlich geringer geworden.
Bereits vor der A7SIII hatte ich ein Instamic mit einem Tentacle als Bluetooth TC Sync Lösung im Einsatz. Der kleine Tentacle ist derzeit das einzige Equipment, welches ich auch auf der A7SIII einsetze. Wenn Cage und Gedöhne, dann nehme ich die GH5/GH5s oder die Z6 mit Ninja. Das Arbeiten mit der A7SIII ist (für mich) anders. Am Wochenende werde ich allerdings trotzdem mal die A7SIII auf den Gimbal setzten und mit dem 85er schauen, wie das dann mit Gyro aussieht. Aber auch da würde ich kein Handy zusätzlich wollen.

Space


Antwort von cantsin:

Mediamind hat geschrieben:
Bereits vor der A7SIII hatte ich ein Instamic mit einem Tentacle als Bluetooth TC Sync Lösung im Einsatz.
Kleine Nachfrage: Wie koppelst Du Tentacle und Instamic?

Space


Antwort von Mediamind:

Ganz einfach und leider nirgends im Detail beschrieben: Beim Aufnahmebeginn liest das Instamic den BT TC des Tentacles und verwendet ihn. Der Sync erfolgt nur einmal und wirklich nur zu Beginn der Aufnahme. Ich habe 5 Teantacles. Bei einem Dreh hatte ich sie praktisch alle im Einsatz, das Instamic war umzingelt von Tentacles und trotzdem hatte ich keinen TC im Instamic. Das ist mir mehr als einmal passiert. Dann habe ich Reichweitentest gemacht. Mal bekam das Instamic den TC noch aus 10 Metern mit, dann war auch schon einmal bei 1,5 Metern Schluss....
Wenn man Record über die App im direkten Nahbereich eines Tentacles (10 cm) startet, ist die TC-Übernahme bei allen Aufnahmen vorhanden. Ich hatte übrigens auch erst gedacht, das Instamic würde mir in der Tentacle App angezeigt. Es gibt leider keine Kontrolle, ob der TC per BT genommen wurde oder nicht. Ich habe dem Hersteller hierzu Feedback gegeben. Ansonsten ist die Soundqualität erstaunlich gut und der Einsatz spielend leicht.
Ach ja: Bei einer Aufnahme hatte ich einen gemessenen Versatz von 7 Frames zwischen der S1, Zoom F6 und dem Instamic.Kamera und Recoder hatten beide ihre Tentacles "an Boord". Das hat sich seither jedoch nicht wiederholt.

Space


Antwort von Mediamind:

Frisch und neu, das FW Update auf Version 1.02:
https://www.sony.de/electronics/support ... s/00017015

Vorteile und Verbesserungen
Behebt ein Problem, bei dem die FTP-Übertragung unter Verwendung bestimmter USB-LAN-Adapter fehlschlagen kann
Hinweis: Nicht alle USB-LAN-Adapter funktionieren garantiert ordnungsgemäß
Verbesserte Verbindungsstabilität des USB-Tethering mit iPhone
Hinweise:
Derzeit unterstützt die USB-Tethering-Funktion noch nicht iOS 14
Wir empfehlen die Verwendung eines Smartphones und eines USB-Kabels, die USB-PD (USB-Stromversorgung) unterstützen
Verbessert die Stabilität der Kamera

Space


Antwort von cantsin:

Mediamind hat geschrieben:
Ganz einfach und leider nirgends im Detail beschrieben: Beim Aufnahmebeginn liest das Instamic den BT TC des Tentacles und verwendet ihn. Der Sync erfolgt nur einmal und wirklich nur zu Beginn der Aufnahme.
Aber vermutlich nur dann, wenn man das Instamic über seine Smartphone-App startet bzw. kontrolliert?

Space


Antwort von Mediamind:

Nein, auch über den Schalter am Instamic selbst holt sich das Mik den TC. Dazu hatte mir Instamic geschrieben:
Nice that you are using the Tentacle Tc. I do it too and I love it.
Instamic reads the TC every time you trigger record. No need to re-sync or jam sync anything other than your cameras.

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Manchmal frage ich mich, ob man hier nur des Diskutierens wegen diskutiert und garkeine Lösung wünscht?
Quatsch, natürlich suchen wir die Lösung. Aber gerade im Zusammenhang mit dem Threadthema ist "Gimbal/Sony/Handy" etwas OT, weil die Direktverbindung Kamera > Handy besser funktioniert als zumindest der Zhiyun-Transmitter via HDMI. Letzteres sind mehr Klicks/Wipes, der Lag ist etwas größer, und das Kästchen braucht wenigstens zwei zusätzliche Kabel und hat auch ein Eigengewicht. Zu all dem ist das letzte Wort bestimmt noch nicht gesprochen. Weil, wann hattest du eine Kamera für sieben Tage (neben deiner Arbeit) und hattest Zeit, sie gut zu kennen?

Dieser Thread ist eine Kennenlern-Beschleunigung, zumindest habe ich Mediamind so verstanden. Und ein Bugbuster- und Problemlöser-Thread.
klusterdegenerierung hat geschrieben:
Wäre ja auch schön blöd, so hätte man ja nix mehr zum quatschen. ;-)
Oh, keine Bange, kluster. Wir finden immer was zum Quatschen.

Space


Antwort von Mediamind:

Ergänzende Erkenntnis zu Catalyst Browse:
Wenn die Medien mit FCPX importiert werden, sind die Gyrodaten futsch. Also erst mit Catalyst den Clip finden und dann stabilisiert exportieren, anschließend in FCPX den stabilisierten Clip importieren. Weitere Erkenntnis: Auch die mit der A7S III mit Steady Shot aufgenommenen Ckiops enthalten Gyrodaten. Dann wird es aber häßlich, weil die Gyrodaten nicht mit dem Stabi abgeglichen sind uns sich somit komplett unbrauchbare Ergebnisse (schlechter als ohne Gyrostabilisierung) erzielen lassen.

Space



Space


Antwort von klusterdegenerierung:

Das man in Catalyst die Thumbansicht nicht nach Datum sortieren kann, ist für mich schon wieder ein Ausschlußkriterium.

Space


Antwort von Mediamind:

Das Programm ist richtig schlecht. Es hat nur einen einzigen Zweck (für mich): Stabilisieren. Ich würde nur in ausgewählten Situationen von der Gyrostabilsierung Gebrauch machen. In diesen Fällen ist sie aber der Hammer. Bisher hatte ich nur Material, bei dem der YT ohne Gimbal rum rennt und dann in der Post stabilisiert. Dieser Anwendungsfall ist für keine Option. Aber aus der Hand einen Schwenk mit längerer Brennweite, da sieht die Welt ganz anders aus. Heute war ich mit meinem Haushaltsvorstand in der Essener Keith Haring Ausstellung und habe ein paar Clips für die Gyrostabilisierung ohne IBIS gemacht, das Ergebnis macht Freude. Ich werde die Szenarien für mich im Einzelnen testen. Besser wäre übrigens ein Plugin, welches das Thema innerhalb von FCPX erledigt.

Space


Antwort von Axel:

Finde auch, dass die Gyro-Stabilisierung besser ein Plugin sein sollte. Hab übrigens auch überall trotz Steadyshot die Gyrodaten.

Was ich an Catalyst Browse immer gut fand bei Sony-Zeug ist, dass die Metadaten detailliert sind. Ausschnitt daraus:

zum Bild


In FCPX fehlen die meisten Informationen (wobei der Shutter Angle auch Quatsch ist, und 1/51 Sekunde gibt's ja eigentlich auch nicht). Dafür ist Catalyst gut: man braucht sich keine Aufnahmenotizen bei Testshots zu machen.

Space


Antwort von Axel:

Neue Erkenntnis zu Autofokus. Ich hatte nie begriffen, wovon Gerald Undone mit seinem "AF ON" überhaupt sprach, aber diese Review an dieser Stelle erklärt es gut:
https://youtu.be/Af9_fGEOAB8?t=208

Also mit anderen Worten, ich fokussiere mal eben automatisch, obwohl ich in MF bin. Die grüne Bestätigung bleibt übrigens aus, wenn der AF "sich nicht sicher ist" (Stilleben). Dann sieht man am MF-Peaking, dass es trotzdem okay ist, und der Fokus pumpt halt nicht. Der Touch-Fokus ist trotzdem präziser.

Space


Antwort von Alex:

Mediamind hat geschrieben:
Heute war ich mit meinem Haushaltsvorstand in der Essener Keith Haring Ausstellung und habe ein paar Clips für die Gyrostabilisierung ohne IBIS gemacht, das Ergebnis macht Freude.
Willste mal zeigen? Sowohl Haring als auch die Ergebnisse interessieren mich :-)

Space


Antwort von klusterdegenerierung:

Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und Preview für Log3 oder Auto und alles ist wieder gut.

Space


Antwort von klusterdegenerierung:

Das kommt aufjedenfall dabei raus wenn man sich einen haufen Equipment kauft und am Ende nicht damit umgehen kann.
Sack und Asche was deprimierend.

https://www.youtube.com/watch?v=6EfuovqQNgo

Space


Antwort von Mediamind:

Die arme.... Welch ein Gestolpere. Genau das meine ich mit "die Sache Schank halten". Zur Freigabe des Films aus dem Folkwangmuseum: das ist rechtlich nicht erlaubt. Aufnahmen durften privat gemacht werden, eine Veröffentlichung schließt das leider nicht mit ein.

Space


Antwort von Mediamind:

klusterdegenerierung hat geschrieben:
Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und Preview für Log3 oder Auto und alles ist wieder gut.
Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, Framerate,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.

Space



Space


Antwort von klusterdegenerierung:

Mediamind hat geschrieben:
klusterdegenerierung hat geschrieben:
Diese Geschichte mit der AF Problematik durch SLog kann man doch durch die log preview Funktion umgehen.
Log3 Profil einstellen und Preview für Log3 oder Auto und alles ist wieder gut.
Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, Framerate,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.
Hatt damit auf Axels DP Video geantwortet, da war wieder ein Dude der tempörär nicht funktionierenden AF auf Slog schob.

Space


Antwort von klusterdegenerierung:

Am coolsten finde ich den aufgetronten Transmitter an der 12 Tausend Volt Leitung, die auf einen Schlag das ganze Gimbal Konzept @adsurdum führt.
Sogar der Horizont ist extrem schief und man sieht jede Bewegung, schlimmer noch als wenn man sie einfach in der Hand hält.

Ca 8000 Flocken für Footage welches ich mit ner a6600 butterweich aus der Hand hinbekommen würde.
Ich finds mega. :-)

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Mediamind hat geschrieben:

Es ist vollkommen egal, was Du eingestellt hast, beim AF gibt es keine von mir bemerkten Perfomanceunterschiede. Ob LOG oder nicht, Ansichtshilfe oder nicht, Framerate,... der funktioniert immer. Mit Masken geht der Eye AF übrigens auch aber nicht so gut wie bei normalen Gesichtern.
Hatt damit auf Axels DP Video geantwortet, da war wieder ein Dude der tempörär nicht funktionierenden AF auf Slog schob.
In SLog3 ohne die Funktion (S.47/52) Gamma Display Assist schaut man auf eine total kontrastarme Schwarz-Weiß-Suppe. Gorillas im Nebel. Es ist dann schwierig, äh, motivbasiert manuell scharfzustellen (wiewohl das Peaking funktioniert). Aber man würde diese Gammafunktion wohl immer benutzen. Die nimmt komplett alle Hemmungen, SLog zu benutzen.

Dein Einwand bezog sich sicher auf das von mir verlinkte Video, in der der Typ behauptete, bei zu bewegungsarmen Bildern und flachem Profil könnte der AF sich nach einer Weile langweilen und zu pumpen anfangen. Das ist, wie sehr viele beiläufige Infos aus Reviews, total irreführend.

Wenn Gesichter und später Augen Priorität haben und getrackt werden, gibt es keine Probleme. Bei einem Interview würde der Fokus auch nach einer Stunde noch "kleben" (wie Bloom sagte, er ist sticky).

Brandon Li hat gesagt (und demonstriert), wann dieser AF aufhören kann, zuverlässig zu arbeiten: wenn Augen, Gesichter und Tracking-Muster alle für länger als vier Sekunden verschwinden.

Wie ich auf die vier Sekunden komme? Ich kann 21,22,23,24 zählen, und bevor ich 24 zuende gesagt habe, springt der AF auf das neue Motiv, wenn ich (S.22/52) AF Subj.Shift Sensitivity auf "1" (Locked On) gestellt habe. Bei "5" (Responsive) bekomme ich einen wirklich kontinuierlichen AF, der bei unklaren Verhältnissen auch pumpen kann. Ich finde "3", die Mitte, ideal und sehe keinen Grund, das zu verstellen.

Was ist denn mit einem einstündigen Interview, bei dem die Person lebhaft gestikuliert und ich damit rechnen müsste, dass sie - zum Beispiel - für mehrere Sekunden in ihre Hände weint?

Dieses an den Haaren herbeigezogene Beispiel wäre trotzdem kein Problem, weil ich natürlich eine Zone festgelegt habe, in der der AF nach dem der Kamera nächsten Motiv Ausschau hält. Gehen die Prioritäten verloren, würden halt dann die Hände scharfgestellt. Der Trackingrahmen irrt in diesem Bereich verzweifelt herum. Aber er fängt nicht an, auf's Geratewohl andere Muster zu tracken. Ist das Gesicht wieder da (oder ein prägnanter Gegenstand, den man getrackt hatte), setzt er wieder an.

Trotzdem habe ich eben ein Beispiel für die Grenzen der Automatik erlebt, das sich ohne weiteres auf andere Szenarien übertragen lässt. Zum Beispiel auf die kritische Situation Brautkuss. Diesen würde man trypischerweise mit einer eher langen Brennweite aufnehmen. Und auch bei ziemlich weit geöffneter Blende. Die Augen sind zu, die Gesichter im Profil, usw.

Zwei meiner Kater, nennen wir sie nach der Fellfarbe Tiger und Panther, kämpften um einen zerfetzten Karton. 85mm, das ist leider das teligste, was ich habe, Animal Face/Eye AF Priority, Wide. Panther liefert dem AF so gut wie gar keine Anhaltspunkte, gelegentliche Reflexe auf dem Rücken, aber das Tier ist zu schnell, alles passiert in Sekundenbruchteilen. Er wäre komplett unscharf aufgenommen worden. Tiger dagegen hat ein trackingfreundliches Gesicht, das zu allen Gelegenheiten, in der er es der Kamera über das Dreiviertelprofil hin zuwendet, sofort erfasst wird. Das Bild "springt" dann sichtbar in die Schärfe.

Es ist aber in dieser Situation auch manuell sehr schwer zu entscheiden, worauf gerade der Fokus liegen soll. Die einzige Lösung in diesem Fall: Blende zu. Auf Blende 9 waren beide Tiere und der Karton im Fokus. Da es aber noch ziemlich dämmerig war, blinkte meine ISO auf "3200" (ich habe einen Auto-ISO-Bereich zwischen 640 und 3200 angegeben, da ich 4000 schon zu rauschig finde). Also verstellte ich von Auto ISO auf 12800. Dann konnte ich sogar Blende 11 nehmen. Ich beließ den manuellen Fokus, um durch das Peaking zu sehen, ob die Einstellung okay ist.

Um jetzt nochmal auf die AF ON - Taste zurückzukommen und auf ihre Nutzanwendung. Um es kurz zu machen: ich sehe keine Nutzanwendung, aber vielleicht übersehe ich erneut etwas. Szenario: ich befinde mich im manuellen Fokus, der verhindert, dass die Kamera bei chaotischen Mustern und unklaren Motiven (sich bewegende Katze, egal ob lackschwarz oder tigergestreift) pumpt. Ich drücke AF ON (ich hätte die Taste lieber "Push AF" genannt), und in diesem Augenblick springt der Fokus auf das im vorher eingestellten Fokusfeld nächstgelegene Motiv. Es blitzt kurz ein grüner Rahmen auf, und sobald ich die Taste loslasse, flimmert das Peaking.

Okay, wenn jetzt, wie bei Brandon Lis Demonstration des verlorenen Trackings, ein Baum im Vordergrund das Gesicht seiner Freundin verdeckt, nützt mir die Taste nichts. Oder? Wie?
Wenn ich zuvor im AF gewesen bin, würde mir eher (S.17/29, nur erreichbar über 42/52 - Movie Custom Key Setting, ein "Osterei") der AF/MF Selector Hold - Button etwas nützen, wenn er auf einer gut erreichbaren Taste liegt, z.B. dem roten Movie Button.

Meine Freundin wird getrackt, mit aller künstlichen Intelligenz, derer sich die Kamera brüstet. Ein Baum kommt im Vordergrund ins Bild, verdeckt sie. Jetzt habe ich anderthalb Sekunden (AF Subj.Shift Sensitivity auf "3" , der von mir vorgeschlagenen Mitte), um den AF durch Gedrückthalten der Taste zu pausieren. Ist der Baum durch, lasse ich die Taste los. Klingt gut, oder? Ist zugegebenermaßen noch nicht erschöpfend praxiserprobt, funtioniert aber auf dem Schreibtisch ;-)

Außerdem ist MF nicht mehr notwendig gleichzusetzen mit Drehen am Fokusring. Tippen auf das Motiv ist schneller und verlässiger und funktioniert ja auch in MF.

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
Meine Freundin wird getrackt, mit aller künstlichen Intelligenz
Oh, das tut mir total leid und hat sie nicht verdient.
Ich hoffe es geht ihr dennoch gut und bestelle mal beste Grüße.

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
Ich kann 21,22,23,24 zählen
Komisch, ich komme da auf glatte 90.

Space


Antwort von cantsin:

Die Frage ist, wieviele der neuen, nützlichen Funktionen der A7S III (Autofokus, 10bit, Menüstruktur) auch der Nachfolger der A7iii erhalten wird, und dann zum niedrigeren Preis...

Space


Antwort von Axel:

cantsin hat geschrieben:
Die Frage ist, wieviele der neuen, nützlichen Funktionen der A7S III (Autofokus, 10bit, Menüstruktur) auch der Nachfolger der A7iii erhalten wird, und dann zum niedrigeren Preis...
... und wahrscheinlich mit der für die anderen Produktreihen typischen höheren Sensorauflösung. An den 12MP ist ja das Lowlight-Alleinstellungsmerkmal, wie wir gesehen haben, gar nicht festzumachen.

Das "S" soll für sensitivity stehen, für Lichtempfindlichkeit. Allerdings wohl kaum für angenehmes Rauschverhalten bei höheren ISOs. Offenbar verhalten sich größere Senseln wie größere Schneeflocken. Man sieht an PRAW, dass das ungeglättete Rauschen sehr extrem aussieht. In denselben Situationen ist die Kamera aber in ISO 640 heller als meine A6500 in ISO 800 (deren Base ISO), und zwar sehr deutlich, um schätzungsweise mehr als eine volle Blende. Darum halte ich den ganzen Tanz um Lowlight für verfehlt. Eine gute Faustregel für rauscharme Aufnahmen ist, dass das Bild im Sucher nie heller sein darf als was das Auge sonst sehen kann. Eins zu eins. Ob das eine 24MP (oder höher)- Kamera hinkriegt?

Naja, eventuell dadurch, dass das Rauschen stärker gedithert ist.

Bliebe noch die Schnelligkeit, mit der der Sensor jetzt ausgelesen werden kann, was Konsequenzen für Rolling Shutter und AF hat und natürlich für Serienfotos.

Aber klar, 10-bit in einer A7IV, das wäre bereits super. Für 2299 Öre (UVP der A7III)? Wer weiß? Aber ich schätze nein.

EDIT:
Die Sony A7 IV soll angeblich in der zweiten Jahreshälfte von 2021 auf den Markt kommen und insgesamt mit einem etwas größeren Gehäuse als die A7 III ausgestattet sein. Verbesserungen seien außerdem sowohl beim elektronischen Sucher als auch beim Display geplant. Letzteres soll nämlich mit 1,44 und nicht mehr mit 0,92 Millionen Bildpunkten auflösen, während der EVF eine Auflösung von 3,68 Millionen Bildpunkten zu bieten haben soll. Bei der Sony A7 III waren es noch 2,36 Millionen Bildpunkte.

Das Herzstück der Sony A7 IV soll ein neu entwickelter Vollformatsensor mit einer Auflösung von 30 Megapixeln bilden. Dieser soll selbstverständlich beweglich gelagert sein und außerdem die Aufnahme von 4K-Videos mit 60 fps ermöglichen. Zu den weiteren Merkmalen der A7 IV sollen der Quelle zufolge Dual SD bzw. CFexpress Type A Kartenslots sowie das Menü der A7s III gehören. Preislich soll die Kamera bei 2.499 Dollar liegen.
Von hier.

$2499 entspricht 2899 €.

Was Fotografieren mit der A7SIII betrifft, so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden. Ich würde deshalb am liebsten HEIF statt Raw nehmen (= wie Jpeg, aber in 10-bit), aber Photoshop 2021 kann das nicht lesen. Zweite Faustregel: bei Sony für Raw entweder nur GM oder am besten gleich Sigma Art.

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden.
Wie wäre es mit Korrektur abschalten?

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden.
Wie wäre es mit Korrektur abschalten?
Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und Vignette krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.

Space


Antwort von cantsin:

Axel hat geschrieben:
Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und Vignette krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.
Auf welches Objektiv bzw. welche Objektive beziehst Du Dich konkret?

Space


Antwort von Axel:

FE35mm 1.8 und FE85mm 1.8. Das SEL2414GM ist etwas besser, aber auch für diesen Preis nicht überragend. Für Nicht-Raw-Video sehen aber alle super aus (ist eher zufällig auch die Brandon-Li-Combo, ich wollte eigentlich das Sigma 40mm, aber Undone und Li fanden das Sony besser).
Was ich damit sagen will: wollte ich in PRAW filmen, käme das noch obendrauf. Fettere und teurere Primes. Das würde nicht nur irgendein Rig, sondern ein ziemlich schweres!

Space


Antwort von cantsin:

Axel hat geschrieben:
FE35mm 1.8 und FE85mm 1.8.
Hmm., die beiden habe ich auch, und da schalte ich (bei RAW-Stills) in RawTherapee die Objektivkorrektur meistens aus, weil ich deren Verzerrung gering finde und die Software-Entzerrung und -Entvignettierung zu einem eher künstlich aufgebrezelten Bild führt...

EDIT -
"Butter bei die Fische":
_DSC1247.jpg Sony FE 35mm/1.8, Offenblende, ohne Softwarekorrekturen
_DSC1247-corrected.jpg Sony FE 35mm/1.8, Offenblende, mit Geometrie- und Vignettingkorrektur (Rawtherapee, auf der Basis von Adobes LCP-Datei bzw. Objektivprofil)

Space


Antwort von Axel:

cantsin hat geschrieben:
Axel hat geschrieben:
FE35mm 1.8 und FE85mm 1.8.
Hmm., die beiden habe ich auch, und da schalte ich (bei RAW-Stills) in RawTherapee die Objektivkorrektur meistens aus, weil ich deren Verzerrung gering finde und die Software-Entzerrung und -Entvignettierung zu einem eher künstlich aufgebrezelten Bild führt...
Hm. Vergleichst du auch schonmal fertig entwickelte Raws mit Jpegs? Oder machst du gar keine Jpegs?

Space


Antwort von cantsin:

Axel hat geschrieben:
Hm. Vergleichst du auch schonmal fertig entwickelte Raws mit Jpegs? Oder machst du gar keine Jpegs?
Mach i.d.R. keine JPEGs, außer bei Fuji-Kameras (deren interne JPEG-Engine besser ist als die meisten RAW-Konverter).

Hab' oben noch ein Beispiel-Vergleichsbild hinzugefügt.

Space


Antwort von Mediamind:

Bei mir kommt die 2. Iso-Stufe regelmäßig zur Anwendung. Mit oder ohne ND, je nach Verhältnissen. Dadurch zeichnet sich für mich die Lowlightfähigkeit aus. Das Material mit ISO 12800 sieht einfach super aus. Mit Iso 8000 oder 10000 sehe ich erst einmal bei dem was ich so mache keinen nennenswerten Unterschied zur S1. Bei 12800 dreht sich das dann aber. Ist jetzt nicht neu... Die sauberen 12800 sind einfach nur nützlich und eröffnen andere Optionen.
Noch einmal eine weitere Ergänzung zu Catalyst:
Im S&Q Modus werden keine Gyrodaten aufgenommen. Ich habe das heute böse erfahren müssen. Ich hatte am Ronin-S die A7SIII mit dem Sigma 85 DGDN Art. Ohne Stabi und ohne Catalyst.... Ich habe mit 50p aufgenommen und habe das nun euphemistisch als Stilmittel deklariert (ist für die Verwandtschaft). Mache einen Fehler, wiederhole ihn und behaupte es sei künstlerisch wertvoll :-)

Space


Antwort von Axel:

@cantsin
Schönes Portrait, schöner Blick. Da merke ich praktisch nichts. Ich bin, was Verzeichnungen betrifft, so paranoid wie Tiefflieger, was Bewegungsunschärfe betrifft.
@Mediamind.
50p in S&Q? Hast du etwa die CF-Karte gekauft?

Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion Blur gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur Framerate ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.

Was er auch zeigte ist, dass man bei Zeitlupe eigentlich gar keine Bewegungsunschärfe haben möchte, weil es sowieso nicht mehr um einen natürlichen Bewegungseindruck geht.

Space


Antwort von Cinealta 81:

Mediamind hat geschrieben:
Noch einmal eine weitere Ergänzung zu Catalyst:
Im S&Q Modus werden keine Gyrodaten aufgenommen.
Genau so ist es.

@Axel

Bedenken Sie im Rahmen Ihrer Erwägungen zu den Optiken, dass die A7S iii (und auch die FX9) bei Verwendung einer Sony-fremden Optik ebenfalls KEINE Gyrodaten aufnimmt. Es geht nur mit E-Mount-Optiken. Wichtig zu wissen, denn dann kann man Gimbals + In-Camera-Steady nutzen und ist nicht enttäuscht, wenn im Nachgang die Catalyst-Stabi nichts hergibt. ;-)

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
klusterdegenerierung hat geschrieben:


Wie wäre es mit Korrektur abschalten?
Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und Vignette krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.
Öööh, ich meinte Kamera!!

Space


Antwort von Mediamind:

@cinealta: Gyrodaten werden auch mit den Sigma DGDN Varianten gespeichert. Es muss also nicht immer Sony sein. Ich habe von YT gehört, dass Tamron z.B. nicht ging. Ich kann mich nicht erinnern, welche Optik das war. Der Kanal hört auf den Namen Camera Conspiracies (durchgeknallter Typ, sehr sympathisch)

Space


Antwort von pillepalle:

Axel hat geschrieben:
Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion Blur gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur Framerate ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.
1/48s in 60p? Das schafft nur Gerald Undone :D Es geht bei seinem Video eher darum, ob man die höheren Frameraten nachträglich verlangsamt (also als Zeitlupe benutzt), oder nicht. Man braucht sich nur an die 180°Regel für ein natürliches Motion blur zu halten, wenn man das Footage als Zeitlupe nutzen möchte. Ansonsten hat auch bei 50p die 1/50s den natürlicheren Motion Blur Eindruck.

VG

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:


Das ist es ja. Die Profile waren im neuen ACR zuerst deaktiviert, und ich fand Verzeichnung und Vignette krass. Vor 30 Jahren, mit einer analogen KB, hätte man gesagt, was ist das denn für ein beschissenes Objektiv.
Öööh, ich meinte Kamera!!
Probier ich gerade mal aus. Nur Mut, Axel ...
Mediamind hat geschrieben:
@cinealta: Gyrodaten werden auch mit den Sigma DGDN Varianten gespeichert. Es muss also nicht immer Sony sein. Ich habe von YT gehört, dass Tamron z.B. nicht ging. Ich kann mich nicht erinnern, welche Optik das war. Der Kanal hört auf den Namen Camera Conspiracies (durchgeknallter Typ, sehr sympathisch)
Okay. Will natürlich auch hier keinen Fehler machen. Was kann man empfehlen als Tele?

Sony 70-200 f4 G?
Vorteile: interner Zoom, leicht und kurz genug für Gimbal, gibt es gebraucht ziemlich häufig.
Nachteile: auf 200 begrenzt.

Sigma 100-400?
Vorteile: reicht doppelt so weit für nur wenig mehr neu
Nachteile: nur Stativ- oder Handbetrieb, Gyrodaten?
pillepalle hat geschrieben:
Axel hat geschrieben:
Ja, für 50, 100, 200 fps werden höhere ISOs häufiger nötig sein. Gerald Undone hat ein schönes Video zu proportionalem Motion Blur gemacht, in dem er beweist, dass subjektiv natürliche Bewegungsunschärfe nicht proportional zur Framerate ist, sondern absolut. In 24p sehen 1/48 am besten aus, und in 60p auch. Die Bewegungsunschärfe ändert sich nämlich nicht.
1/48s in 60p? Das schafft nur Gerald Undone :D Es geht bei seinem Video eher darum, ob man die höheren Frameraten nachträglich verlangsamt (also als Zeitlupe benutzt), oder nicht. Man braucht sich nur an die 180°Regel für ein natürliches Motion blur zu halten, wenn man das Footage als Zeitlupe nutzen möchte. Ansonsten hat auch bei 50p die 1/50s den natürlicheren Motion Blur Eindruck.
In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?

Ich hielt die 180°-Regel vor Geralds Video für universell.

Space


Antwort von Mediamind:

Ich hatte mich für das 70-200 Blende vier von Sony entschieden. Die Vorteile gegenüber zum Beispiel Tamron liegen auf der Hand. Die zusätzliche Objektivstabilisierung bringt gerade bei aus der Hand gefilmten Clips eine Menge. Das objektiv ist super kompakt und an der A7S3 eine sehr gute Kombination.

Space


Antwort von pillepalle:

Axel hat geschrieben:
In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?
Weil 1/50s Belichtungszeit länger wäre als Deine 60 Bilder pro Sekunde es zulassen würden. Du kannst maximal einen Shutterangle von 360° haben. Also bei 60p maximal 1/60s als längste Belichtungszeit.

VG

Space


Antwort von Axel:

pillepalle hat geschrieben:
Axel hat geschrieben:
In 60p habe ich 1/50tel (1/48 haben die Sonys ja eh nicht), wieso nicht?
Weil 1/50s Belichtungszeit länger wäre als Deine 60 Bilder pro Sekunde es zulassen würden. Du kannst maximal einen Shutterangle von 360° haben. Also bei 60p maximal 1/60s als längste Belichtungszeit.
Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° Shutter entspräche, kann man bei den meisten elektronischen Kameras eine Verschlusszeit wählen, die länger ist als die Anzeigedauer eines Einzelbildes. Ich kann z.B. bei 25p einen Shutter von 1/12 Sekunde einstellen. Effektiv habe ich damit zwar die Bildfrequenz halbiert, aber es geht. Blick durch den Sucher: sieht aus wie im Wodka-Vollrausch.

Space


Antwort von Axel:

Guter Überblick über speziell das ProRes Raw der A7SIII:


Big Sur befindet sich gerade in einer seiner wahrscheinlich letzten Beta-Phasen. Innerhalb von Tagen danach (oder zeitgleich, kam auch schon vor) wird FCP11 herauskommen, ohne Zweifel mit vielen Neuerungen. Welchen Stellenwert Apple dabei PRAW einräumt werden wir ja sehen. Es ist auch die Nagelprobe für FCP-Nutzer. Lässt sich eine Perspektive erkennen, die weitere Investition in Apple Hardware rechtfertigt? Das ist immer spannend. BM hat in den letzten Jahren viel erreicht. Ebenso wie Sony mit der A7SIII die Erwartungen nach all den Jahren übertreffen musste (im Hintergrund kann man sich ebenfalls über die BM-Strategie verbitterte Sony-Bosse denken) kann FCP jetzt mit irgendwelchen lahmen Gimmicks nicht überzeugen. Neben A.I.-Funktionen sollte Wert auf bessere Post-Workflows gelegt werden.

Space


Antwort von manfred52:

Axel hat geschrieben:
Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° Shutter entspräche,
Seit wann sind 1/60s länger als 1/50s?

Der Shutter bei 60p und 1/50s entspricht 432°.


Space


Antwort von Axel:

manfred52 hat geschrieben:
Axel hat geschrieben:
Mal ganz davon abgesehen, dass 1/50 bei 60p nur einem 300° Shutter entspräche,
Seit wann sind 1/60s länger als 1/50s?

Der Shutter bei 60p und 1/50s entspricht 432°.
Verdammt. Religion eins, Kopfrechnen sechs ...
;-))

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Also persönlich sprach ich nur von meinen Erfahrungen mit der Combi Alpha und Handy und wie gut das funzt und was daraus alles resultieren kann, trotzdem wird da kaum drauf eingegangen und alle brechen sich aber einen mit Kabel und Moni ab und erwähnen dann und wann mal das die Combi Handy Sony (Gimbal/Sony/Handy) ja auch gehen soll, punkt, als wenn ich hier noch nie darüber geschrieben hätte wie gut das geht und welche Möglichkeiten das eröffnet.
(...)
Die A7SIII war einmal über WiFi gekoppelt mit dem iPhone, und WiFi blieb aktiv. Nächstes Öffnen der "Remote" über die ImagingEdge App dauerte heute ca. 10 Sekunden, mit nur zwei Abfragen ("Verbinden?" Weiter. "Remote?" OK). Dann kam das so gut wie lagfreie Vorschaubild. Heute wollt' ich's wissen:
> keine gammakorrigierte Vorschau, d.h. das Bild ist ziemlich grau.
> alle wesentlichen Funktionen steuerbar.
> Touchfokus funktioniert, aber es ist eine Einzel-Berührungs-Auswahl-Scharfstellungs-Programmierung, keine Fadenkreuz-erzeugende-und-beim-Loslassen-den-Tracker-triggernde-Scharfstellungs-Programmierung. Ich tipp auf das Motiv, ein weißer Punkt bestätigt die Berührung, und dahin wandert der Fokus. Dieser weiße Punkt hat einen Durchmesser von ca. 5mm auf dem Smartphone-Display. Das ist die Genauigkeit, die erreicht werden kann. Will man eine Kante scharfstellen, muss man unmittelbar daneben tippen, sodass der Rand des weißen Punktes die Kante berührt. Tippt man mittig auf die Kante, weiß die Kamera offenbar nicht, ob Vorder- oder Hintergrund gemeint sind. Dann pumpt sie für eine Sekunde leicht, und keins von beidem wird scharf gestellt.

Insgesamt sehr brauchbar. Stabiler und verzögerungsärmer als der Zhiyun Transmitter (andere kenne ich halt nicht), und der Touchfokus ist auch - für's Erste - nicht schlecht gemacht.

Potato Jet hat in seinem Menu-Video den Punkt erwähnt:
https://youtu.be/cEgwUyKMj7k?t=1667 "Potato Jet"]Ich bin also hingegangen und hab diese App runtergeladen. Sie hat überall schreckliche Bewertungen. Aber ich weiß eigentlich nicht warum, denn ich fand sie ziemlich cool ... Ich weiß, wieso sie schlechte Wertungen hatte: weil sie bislang kaum funktionierte. Luft nach oben ist noch immer. Vielleicht gibt's die Camoodoo-App ja auch bald für iOS.
[quote=Axel hat geschrieben:

Was Fotografieren mit der A7SIII betrifft, so bin ich mal wieder von dem Ausmaß schockiert, in dem die Sony-Linsen in-camera korrigiert werden. Ich würde deshalb am liebsten HEIF statt Raw nehmen (= wie Jpeg, aber in 10-bit), aber Photoshop 2021 kann das nicht lesen. Zweite Faustregel: bei Sony für Raw entweder nur GM oder am besten gleich Sigma Art. Die ImagingEdge-App wies mich auch darauf hin, dass es speziell für die Sony A7SIII einen Heif-Konverter gibt. Bei der Installation wird frecherweise tatsächlich die Seriennummer abgefragt.
https://support.d-imaging.sony.co.jp/app/heif/en/

Space


Antwort von Axel:

OT: Lebewohl Trump. Wie schön, diese Broilerfresse demnächst nicht mehr dauernd zu sehen!

Zurück zum Thema:
Gerald Undone hat auf Twitter das gepostet:

zum Bild


Ist ACES wirklich so einfach?


Mit dieser Methode sehen meine Clips nämlich am besten aus, und die Nachbearbeitung ist auch gefühlt flexibler. Vielleicht mag jemand kommentieren?

Space


Antwort von klusterdegenerierung:

Ich hab das ganze tamtam mit ACES auch mal intensiver ausprobiert, aber ich kam nie auf einen halbwegs grünen Zweig, bzw waren die Ergebnisse ohne das ganze tamtam nicht wirklich besser oder einfacher.

Space


Antwort von Frank Glencairn:

Natürlich nicht - ACES lohnt sich nur, wenn du Material von verschiedenen Kameras auf der Timeline hast.

Space


Antwort von Axel:

Okay, danke schonmal. Kann jemand noch erläutern, was die Nachteile gegenüber einer LUT oder Farbraum-Konvertierung sind?

@kluster
Wieso Tamtam? Scheint doch ganz einfach zu sein ?

Space


Antwort von roki100:

Was scheinbar wenige kennen ist DaVinci Resolve DCTL /ACES and OFX Plugins

https://www.youtube.com/watch?v=rOdm-Kf-Nj8

https://www.youtube.com/watch?v=EeUSQvEvFgw

Space


Antwort von cantsin:

"Frank Glencairn" hat geschrieben:
Natürlich nicht - ACES lohnt sich nur, wenn du Material von verschiedenen Kameras auf der Timeline hast.
Aber auch, wenn man ein Projekt später in verschiedene Farbräume bringen will (wie z.B. P3 und Rec2020 neben Rec709) und dafür im möglichst großen Farbraum mastern will - natürlich vorausgesetzt, dass das Kameramaterial in einem größeren Farbraum als Rec709 vorliegt. (Was aber beim SLog3+SGamut der A7sIII der Fall ist.)

Space


Antwort von Axel:

Also nochmal: Lässt sich der “Workflow” auf das reduzieren, was in dem von mir verlinkten Video erwähnt wird? Eine einmalige Projekt-Voreinstellung? Und danach, da ich sowieso nur SLog3 habe, kein weiteres “Tamtam”?

Denn *allem Anschein nach* habe ich sowohl im Schnitt eine normalisierte Ansicht als auch in der Farbkorrektur keine Einschränkung, verglichen mit Konvertierung oder LUT ...

Space


Antwort von klusterdegenerierung:

Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?

Space


Antwort von Alex:

klusterdegenerierung hat geschrieben:
Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?
Hier! Ich! Ich! Und nein, noch nicht gelöst. Bzw. die Lösung mit externem Rekorder ist nix für mich. Und es war die A7III ohne "s" ;-)

Space


Antwort von Mediamind:

Bei der A7SIII funktioniert das Facetracking auch mit Recorder. Das Problem war in der tat bei der A7III bekannt. Ich habe das sowohl in RAW als auch mit der normalen Aufzeichnung ohne Einschränkungen probiert.

Space


Antwort von klusterdegenerierung:

"Alex T" hat geschrieben:
klusterdegenerierung hat geschrieben:
Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?
Hier! Ich! Ich! Und nein, noch nicht gelöst. Bzw. die Lösung mit externem Rekorder ist nix für mich. Und es war die A7III ohne "s" ;-)
Öh, jetzt stehe ich auf den Schlauch, heißt das jetzt, nein Du brauchst keine Lösung weil Du keinen Recorder nutzen möchtest?
Heißt das jetzt, nein Du brauchst keine Lösung weil Du keinen Recorder nutzen möchtest, weil Facetracking nicht funktioniert?

Heißt das jetzt, Du würdest einen Recorder nutzen wenn Du eine Lösung hättest?
Heißt das jetzt, Du möchtest eine Lösung? :-))

Heißt das jetzt, nein Du brauchst keine Lösung weil Du eh keine A7III nutzt?
Danke an Mediamind! :-)

Space


Antwort von Alex:

Also: Ich kenne nur die eine Möglichkeit das Facetracking mit HDMI-Anschluss zu erhalten, das wäre mit externem Rekorder. Ich will aber intern aufzeichnen.

Oder andersrum: Wenn du eine Lösung hast die mit interner Aufzeichnung funktioniert, dann gern her damit.

P.S.: Aktuell ist die A7III als B-/Gimbal-Cam im Einsatz.

Space


Antwort von klusterdegenerierung:

Nö, das wäre dann auch meine Lösung gewesen, die ich bislang nicht kannte.
Die Frage die aber gestellt werden darf, wenn man eh mit mit Atomos unterwegs ist, warum dann auch intern, aber es geht ja "auch nicht", wenn man "nur" einen Monitor benutzt, das hatte ich bislang garnicht berücksichtigt.

Auf der anderen Seite betraf mein Einwand aber auch die User mit Recorder, die ja out of the Box erstmal das selbe Problem haben und wahrscheinlich garnicht wissen, wie sie dieses Problem umgehen können.

So stellt es sich zumindest dar, wenn man mitbekommt wie viele recorder user darüber klagen, das sie kein Facetracking nutzen können.
"Alex T" hat geschrieben:
Also: Ich kenne nur die eine Möglichkeit das Facetracking mit HDMI-Anschluss zu erhalten, das wäre mit externem Rekorder. Ich will aber intern aufzeichnen.
So und das inkludiert leider nicht ganz die Lösung, denn User mit Recorder haben das selbe Problem wie jene mit Monitor.

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Hallo Axel, nun bin ich mal der mit Gedächtnisverlust :-)), aber hast Du nicht vor kurzem die Problematik aufgezeigt, das wenn man einen Recorder an die A7 anschliesst, das facetracking nicht mehr funktioniert?

Ich bin da nämlich über eine Lösung gestolpert, oder hast Du es bereits gelöst?
Ich habe ja keinen externen Recorder. Und soweit ich weiß funktioniert Facetracking auch mit dem Atomos - bei der A7SIII, vielleicht nicht bei der A7III -, lediglich Touchfokus nicht (aber da bin ich jetzt zu faul, Blooms einstündige Review zu reviewen).

Lass mal hören, bitte. Ist zwar relativ unwahrscheinlich, dass ich mir den Ninja hole (aber wer weiß? Am Dienstag und am Mittwoch gibt's ja interessante neue Enthüllungen von BM und Apple), aber wenn, dann weiß ich's vorher.

Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme. Ziemlich lang, darum fasse ich's zusammen:
Es ist nicht die Kamera! Wer mit den Sony-Vorläufern keine guten Videos hinkriegt, der wird auch an der A7SIII scheitern!
Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).

Trotzdem bin ich überzeugt davon, dass PRAW theoretisch sehr viel besser ist als XAVC. Nämlich dann, wenn es vernünftig implementiert ist, bzw. wäre. Ich bin momentan noch am Ball, was den CC-Workflow betrifft. Hier Screenshots (in Resolve mach ich natürlich "Grab Still") von drei Alternativ-Methoden (die vierte, das Graden ohne alle Konvertierung, lass ich jetzt mal außen vor). Alle ohne sonstige Änderung:

zum Bild

Color Space Transform


zum Bild

LUT-SLog3-zu-Rec709-Type-A


zum Bild

ACES

Der Witz an ACES ist, dass es sich tatsächlich in den normalen Lift-Gamma-Gain-Offset-Werkzeugen anfühlt wie Raw im Camera-Raw-Modul:


Du / cantsin / Frank Glencairn seid mir noch einen Hinweis darauf schuldig, wieso ACES unnötiger "Tamtam" ist. Worin bestünde der Mehraufwand?

Space


Antwort von cantsin:

Axel hat geschrieben:
Du / cantsin / Frank Glencairn seid mir noch einen Hinweis darauf schuldig, wieso ACES unnötiger "Tamtam" ist.
Das habe ich nicht geschrieben! Ich hatte nur Franks Anmerkung relativiert, dass sich ACES nur lohne, wenn man das Material verschiedener Kameras mischt. Aber IMHO spricht auch nichts prinzipiell gegen ACES, wenn nur mit einer Kamera gedreht wurde und das Ziel Rec709 ist.

In der Praxis läuft es wohl auf die Qualität der jeweiligen individuellen LUTs, IDTs oder sonstigen Farbraum-Transformationsfunktionen, wie auch in Deinen Beispiel-Screenshots. (Also: ACES mag in der Theorie der bessere Workflow sein, ist es aber in der Praxis nicht, wenn die IDTs für ein bestimmtes Kameramodell schlechter sind als die Hersteller-LUTs und umgekehrt, etc.)

Selbst versuche ich LUT-Workflow mittlerweile so weit wie möglich zu vermeiden, weil LUTs destruktiv sind, und bei anderen Transformationen in Resolve Tone Mapping möglich ist, was ein echter "Live Saver" ist, wenn man von größeren Farbräumen und Dynamikumfängen in kleinere wie Rec709 konvertiert, ohne bei jedem Clip händisch die Kurven absenken zu müssen.

EDIT: Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme. Was für ein angenehmer, kompetenter, sachlicher und eloquenter Typ (vor allem im Vergleich zu den überdrehten Influencern und sonstigen YouTube-Staubsaugervertretern).

Space


Antwort von Axel:

cantsin hat geschrieben:
Ich hab gestern einen guten, fairen und produktiven Erfahrungsbericht in deutscher Sprache gesehen, dem ich zustimme. Was für ein angenehmer, kompetenter, sachlicher und eloquenter Typ (vor allem im Vergleich zu den überdrehten Influencern und sonstigen YouTube Staubsauger-Vertretern).
Besonders doof fand ich kürzlich Matti Haapoja. Aber es gibt einige Nachteile . Es ist zum Beispiel viel schwieriger farbzukorrigieren, denn es ist so flach, dass du unheimlich viel tun musst, um es zu einem Punkt zu bringen, wo es mal ein bisschen Kontrast hat. Ja, du kannst einige LUTs oder Konversion-LUTs benutzen dafür, aber irgendwie hab ich das Gefühl, die machen noch nicht so einen richtig guten Job. Und dann die Zebras! Wenn du die nämlich auf "100" oder "100+" setzt, kriegst du sie nie zu Gesicht. Weil es gar nicht bis zu diesem Punkt reicht. Der Workaround ist, dass du die Zebras so weit runterdrehst, bis sie erscheinen. Das ist ein weiteres kleines Ärgernis ... Ich gucke z.Zt. trotzdem noch (fast) jeden Scheiß, denn zwischendurch sind kleine Entdeckungen und Tricks enthalten.

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
vielleicht nicht bei der A7III -, lediglich Touchfokus
Lass mal hören, bitte. Ist zwar relativ unwahrscheinlich, dass ich mir den Ninja hole (aber wer weiß?

Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).
Öh, Slog3 ist kein Gegenteil von PRaw, da passt was nicht zusammen.
Wer mit der A7III facetracking bei Recordern nutzen möchte, muß die interne Aufnahme auf SD deaktivieren.

Darauf muß man natürlich erst mal kommen.

Space


Antwort von Alex:

klusterdegenerierung hat geschrieben:
Wer mit der A7III Facetracking bei Recordern nutzen möchte, muss die interne Aufnahme auf SD deaktivieren.

Darauf muss man natürlich erst mal kommen.
Ich habe es live beim Job erlebt, konnte es aber auch erst nach der Arbeit aufklären. Die Cam war noch recht neu, eigentlich war es mein erster Job mit ihr. Und ich dachte dauernd, dass das Facetracking doch recht unzuverlässig ist, weil das Quadrat im Gesicht nicht zu sehen war.
Die Cam macht zwar auch ohne Gesichtserkennung immer noch AF aber lange nicht so gut wie mit.
Und ich bilde mir auch ein, dass die Kamera etwas besser aufs Gesicht belichtet bei Auto-ISO, bin mir aber nicht 100% sicher. Sinn würde es aber ergeben.

Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.

Space


Antwort von Mediamind:

Die A7SIII macht vieles richtig. Dass der AF bei der A7III mit einem Ninja ausfällt ist wirklich nicht nett. Auf der anderen Seite sind die 8 Bit auch kein guter Grund einen Recorder anzustöpseln. Ehrlich gesagt werden die Gründe für einen Recorder bei der A7SIII immer weniger. Wenn ich nicht auf das schmale Brett RAW möchte, ist der Mehrwert überschaubar.
ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.

Space


Antwort von Axel:

"Alex T" hat geschrieben:
Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.
Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Mediamind hat geschrieben:
ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.
Okay, unterschiedliche Kameras anzugleichen, das scheint wirklich ein bisschen "Tamtam" zu sein. Bei einer Kamera in Resolve scheint es aber nicht so wild zu sein. Es gibt zwei Alternativen, eine mit und eine ohne Resolve Studio-Lizenz (Resolve "Lite" importiert kein XAVC in 10-bit), beide total einfach:

a1) In FCP X schneide ich inklusive Retiming und Reframing. KEINE ÜBERBLENDUNGEN! Breiter Gamut HDR für die Mediathek, 709 für das Projekt, allen Clips spende ich die Kamera-LUT SLog3. Ist der Schnitt fertig, stelle ich das Projekt auf rec_2020 und entferne die LUT, dann teile ich es als ProResHQ, mit dem Titel A7SIII-Test-Katzen-Log.

a2) In Resolve "Lite" navigiere ich zum Speicherort der A7SIII-Test-Katzen-Log. Ich mache einen Rechtsklick darauf und wähle ...


zum Bild

... Scene Cut Detection. Danach öffnet sich ein Fenster im Sinne von erkenne Schnitte und importiere die Timeline als Einzelclips. Du kannst und solltest die durch die Analyse erkannten Schnitte bestätigen oder korrigieren. Sollten 99% Treffer sein.

a3) Ich lege in den Projekteinstellungen (Zahnrad unten rechts) ACES als Color Management fest:


zum Bild


a4) Ich springe direkt in's "Color"-Tab. Die Werkzeuge sind sehr ähnlich wie die in FCP, lediglich über Nodes solltest du dich kundig machen. In Resolve macht die Farbkorrektur definitiv mehr Spaß.
a5) Am Schluss gehe ich in's Deliver-Tab, das zwar nicht ganz selbsterklärend ist, aber so ungefähr anhand eines 5-Minuten-Tutorials verstanden werden kann.


MIT Resolve-Studio-Lizenz:
b1) Ich exportiere aus FCPX nach dem Schnitt eine XML (für Resolve am besten immer neueste Version wählen).
b2) Ich öffne Resolve, dann gehe ich zu >File >Import Timeline >AAF, XML usw.
b3) Ich bestätige im Dialog, dass Sizing-Information übernommen werden soll, aber nicht Color-Information.
b4) von da an wie
a3)

Normalerweise werden Timing-Informationen gut transferiert. Ken Burns usw. klappt weniger zuverlässig, das würd ich vorher einbacken (schon in FCPX exportieren, re-impotieren und in der Timeline ersetzen).

In FCPX gibt's ja kein ACES. Wenn du dort bleiben wolltest, würde ich eine schöne LUT suchen (bin da kein Experte, ich höre immer was von Venice oder Leeming) und sie, zack!, auf einen über die gesamte Timeline gezogenen Adjustment-Layer (über >Effekte >Farbe >Eigene LUT) anwenden. Ich hab das Gefühl, die "Kamera-LUTs" im Inspektor sind nicht das Grüne vom Ei ...
bei unterschiedlichen Kameras, die untereinander angepasst werden müssen, gibt es mW nichts in FCPX direkt. Color Finale Pro (und irgendein weiteres CC-Plugin) liefern die Möglichkeit mit so einer Colorchecker-Tafel die Farben anzugleichen.

Space


Antwort von Axel:

"Alex T" hat geschrieben:
Wenn ich mich recht erinnere ist das Facetracking (ich rede immer noch von der A7III) auch dann deaktiviert, wenn man den Gimbal mit dem USB der Kamera verbunden hat. Scheint in beiden Fällen zu viel Processing-Power zu kosten oder ist künstlich in seinen Fähigkeiten beschnitten worden.
Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Mediamind hat geschrieben:
ACES finde ich auch interessant. Habe mich bei YT ungesehen und zu ACES und FCPX erstmal nichts griffiges für mich gefunden. Ich verwende unterschiedliche Kameras und fände einen Workflow interessant, der mir die Arbeit des Angleichens erleichtert recht smart.
Es gibt zwei Alternativen, eine mit und eine ohne Resolve Studio-Lizenz (Resolve "Lite" importiert kein XAVC in 10-bit), beide total einfach:

a1) In FCP X schneide ich inklusive Retiming und Reframing. KEINE ÜBERBLENDUNGEN! Breiter Gamut HDR für die Mediathek, 709 für das Projekt, allen Clips spende ich die Kamera-LUT SLog3. Ist der Schnitt fertig, stelle ich das Projekt auf rec_2020 und entferne die LUT, dann teile ich es als ProResHQ, mit dem Titel A7SIII-Test-Katzen-Log.

a2) In Resolve "Lite" navigiere ich zum Speicherort der A7SIII-Test-Katzen-Log. Ich mache einen Rechtsklick darauf und wähle ...


zum Bild

... Scene Cut Detection. Danach öffnet sich ein Fenster im Sinne von erkenne Schnitte und importiere die Timeline als Einzelclips. Du kannst und solltest die durch die Analyse erkannten Schnitte bestätigen oder korrigieren. Sollten 99% Treffer sein.

a3) Ich lege in den Projekteinstellungen (Zahnrad unten rechts) ACES als Color Management fest:


zum Bild


a4) Ich springe direkt in's "Color"-Tab. Die Werkzeuge sind sehr ähnlich wie die in FCP, lediglich über Nodes solltest du dich kundig machen. In Resolve macht die Farbkorrektur definitiv mehr Spaß.
a5) Am Schluss gehe ich in's Deliver-Tab, das zwar nicht ganz selbsterklärend ist, aber so ungefähr anhand eines 5-Minuten-Tutorials verstanden werden kann.


b1) Ich exportiere aus FCPX navh dem Schnitt eine XML (für Resolve am besten immer neueste Version wählen).
b2) Ich öffne Resolve, dann gehe ich zu >File >Import Timeline >AAF, XML usw.
b3) Ich bestätige im Dialog, dass Sizing-Information übernommen werden soll, aber nicht Color-Information.
b4) von da an wie
a3)

Normalerweise werden Timing-Informationen gut transferiert. Ken Burns usw. klappt weniger zuverlässig, das würd ich vorher einbacken (schon in FCPX exportieren, re-impotieren und in der Timeline ersetzen).

In FCPX gibt's ja kein ACES. Wenn du dort bleiben wolltest, würde ich eine schöne LUT suchen (bin da kein Experte, ich höre immer was von Venice oder Leeming) und sie, zack!, auf einen über die gesamte Timeline gezogenen Adjustment-Layer (über >Effekte >Farbe >Eigene LUT) anwenden. Ich hab das Gefühl, die "Kamera-LUTs" im Inspektor sind nicht das Grüne vom Ei ...

Space


Antwort von klusterdegenerierung:

Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!
Danke, denke, jetzt passt's.

Space


Antwort von roki100:

Bei den gezeigten Bilder, sehe ich zwischen LUT-SLog3-zu-Rec709-Type-A und ACES kaum ein Unterschied? Ich denke, wenn man bei LUT-SLog3-zu-Rec709-Type-A den Color Regler auf +5 oder max. auf +10 erhöht, dann sieht man gar kein unterschied?

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
klusterdegenerierung hat geschrieben:
Axel, arbeite doch mal der Reihe nach ab, dann fällt keiner durchs Raster!
Danke, denke, jetzt passt's.
?
Sorry, meine Fragen/posts scheinst Du wirklich nicht gerne zu beantworten, ich gebe es hiermit offiziell auf.

Space


Antwort von Alex:

Axel hat geschrieben:
Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Zhiyun Crane 2

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:


Danke, denke, jetzt passt's.
?
Sorry, meine Fragen/posts scheinst Du wirklich nicht gerne zu beantworten, ich gebe es hiermit offiziell auf.
Verzeihung, wie gesagt, mangels eines externen Recorders kann ich nicht beantworten, ob Facetracking bei paralleler XAVC-Aufnahme noch funktioniert. Ich bin hier nur nebenbei auf slashCAM, hab die Kamera vor mir und wechsel noch ständig zwischen Resolve und FCP hin und her.
klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
Und: nur beinharte Raw-Fundis vermögen zwischen SLog3 und PRAW einen positiven Unterschied zu sehen (nun ja: organischeres Rauschen, ich würde sagen man vermeidet Rauschen besser ganz).
Öh, Slog3 ist kein Gegenteil von PRaw, da passt was nicht zusammen.
Gegenteil hab ich nicht geschrieben. Das bezog sich auf das von mir verlinkte Video, in dem der Reviewer sagt, bis auf dass PRAW mehr rauscht, kann ich beim besten Willen keinen Unterschied sehen. Gegenteil ungleich Unterschied.
"Alex T" hat geschrieben:
Axel hat geschrieben:
Welcher Gimbal?
Sonys werden von DJI und Zhiyun generell schlechter unterstützt als Pan oder Can (und neuerdings selbst BM).
Zhiyun Crane 2
Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?
roki100 hat geschrieben:
Bei den gezeigten Bilder, sehe ich zwischen LUT-SLog3-zu-Rec709-Type-A und ACES kaum ein Unterschied? Ich denke, wenn man bei LUT-SLog3-zu-Rec709-Type-A den Color Regler auf +5 oder max. auf +10 erhöht, dann sieht man gar kein unterschied?
ACES ist deutlich etwas dunkler. Vielleicht Gammashift, weil ich nicht 709-Type-A einstellen kann? Muss mal weiterforschen ...

Space


Antwort von klusterdegenerierung:

Axel, das mit dem Praw ist so eine Sache, weil es sowohl 10bit, als auch 12bit 4444 sein kann, je nach interpretation und beides sieht erstmal identisch aus und die Dynamik ändert sich selbstverständlich auch nicht, aber es ist immerhin ein Raw und Du weißt ja von Fotos, was das bedeutet.

Auf ein Raw rauscht mehr als ein jpg, aber trotzdem kannst Du diesen Aspekt getrost vergessen, denn jeder belichtet unterschiedlich gut oder schlecht und das kannst Du bei fremdmaterial nie wissen.

Ich bin gerade dabei einen Unterschied zu checken und wandel gerade das PRaw in ProRes 4444 HQ und vergleiche es geben 422 10Bit.
Das wird man aber eh nur beim graden sehen können und sicherlich an einer saubereren Datei.

Werde berichten.

Space


Antwort von Alex:

Axel hat geschrieben:
"Alex T" hat geschrieben:
Zhiyun Crane 2
Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?
Ja, funktioniert gut: REC, ISO, Blende, Belichtung. Aber ich verzichte, weil mir Facetracking wichtiger ist, denn das ist eine Offenbarung für gewisse Situationen, besonders auf dem Gimbal. Ich nutze die Cam auf dem Crane 2 ohne Kabel.

Space


Antwort von Axel:

"Alex T" hat geschrieben:
Axel hat geschrieben:
Und?
Kannst du die Batterie puffern? Record Start/Stopp? E-Focus? E-Zoom?
Ja, funktioniert gut: REC, ISO, Blende, Belichtung. Aber ich verzichte, weil mir Facetracking wichtiger ist, denn das ist eine Offenbarung für gewisse Situationen, besonders auf dem Gimbal. Ich nutze die Cam auf dem Crane 2 ohne Kabel.
Noch keinen Schimmer mit der A7SIII und dem Weebill S. USB-C kann es nicht sein & Micro-USB ("Multi") wird nicht erkannt. Aber mir ist es auch nicht eilig.
klusterdegenerierung hat geschrieben:
Auf ein Raw rauscht mehr als ein jpg, aber trotzdem kannst Du diesen Aspekt getrost vergessen, denn jeder belichtet unterschiedlich gut oder schlecht und das kannst Du bei fremdmaterial nie wissen.
Bei "Lowlight" ist es offenbar besser, etwas heller zu belichten als es das Auge sieht. Nicht, um es so zu lassen, sondern um es später wieder abzusenken. Um tiefe Schatten zu kriegen, obwohl man die tiefen Schatten gar nicht mit aufgenommen hat. Bei grellem Sonnenschein - den wir ja heute hatten - gilt definitiv das Gegenteil, weil man durchaus clippen kann. Dann gibt es noch "normal".

Ist ja alles nichts Neues. Gegenüber der A6500 ist es höchstens so, dass diese Bereiche jetzt weiter auseinander liegen. Bei der muss es bei Lowlight ganz klar heller sein als es das Auge sieht. Aber die Unterschiede sind quantitativ zu messen, sie sind relativ und inkrementell.

Eine absolut gleichmäßige Belichtung ist in SLog3 nur unter gleichen Lichtbedingungen oder unter Verzicht auf optimierte Dynamik möglich. Und im Kreativmodus "Standard" am besten durch "P" - Automatik. Gerald Undones Graukarte zur Belichtung werde ich gewiss nicht vor jeder Aufnahme vor die Linse halten.

Da wir gerade von Graukarte sprechen: ein benutzerdefinierter Weißabgleich ist in den Memory-Modi *nicht* möglich. Das ist bitter. Es zwingt einen dazu, sich vom Movie-Modus immer komplett durch alle Einstellungen zu zappen. Man kommt sich vor wie ein Flugzeugkapitän beim Check seiner Instrumente.

Hey, kluster, ich hab gerade ein sehr gutes Argument für Raw gefunden!

Space


Antwort von anamorphic:

Hat einer der A7s III Besitzer schon mal geprüft ob bei Benutzung der Imaging Edge Mobile App als Vorschaumonitor eine Slog Aufnahme möglich ist?
Bisher war es ja bei allen Alpha Modellen so dass bei Aktivierung der App die Gammaeinstellung auf Rec709 zurücksprang.
Im Gimbal mit Autofokus reicht mir das Smartphone als kabelfreier, leichter Monitor.

Space


Antwort von Axel:

anamorphic hat geschrieben:
Hat einer der A7s III Besitzer schon mal geprüft ob bei Benutzung der Imaging Edge Mobile App als Vorschaumonitor eine Slog Aufnahme möglich ist?
Bisher war es ja bei allen Alpha Modellen so dass bei Aktivierung der App die Gammaeinstellung auf Rec709 zurücksprang.
Im Gimbal mit Autofokus reicht mir das Smartphone als kabelfreier, leichter Monitor.
Axel hat geschrieben:
Die A7SIII war einmal über WiFi gekoppelt mit dem iPhone, und WiFi blieb aktiv. Nächstes Öffnen der "Remote" über die ImagingEdge App dauerte heute ca. 10 Sekunden, mit nur zwei Abfragen ("Verbinden?" Weiter. "Remote?" OK). Dann kam das so gut wie lagfreie Vorschaubild. Heute wollt' ich's wissen:
> keine gammakorrigierte Vorschau, d.h. das Bild ist ziemlich grau. Edit: aber in SLog!
> alle wesentlichen Funktionen steuerbar.
> Touchfokus funktioniert, aber es ist eine Einzel-Berührungs-Auswahl-Scharfstellungs-Programmierung, keine Fadenkreuz-erzeugende-und-beim-Loslassen-den-Tracker-triggernde-Scharfstellungs-Programmierung. Ich tipp auf das Motiv, ein weißer Punkt bestätigt die Berührung, und dahin wandert der Fokus. Dieser weiße Punkt hat einen Durchmesser von ca. 5mm auf dem Smartphone-Display. Das ist die Genauigkeit, die erreicht werden kann. Will man eine Kante scharfstellen, muss man unmittelbar daneben tippen, sodass der Rand des weißen Punktes die Kante berührt. Tippt man mittig auf die Kante, weiß die Kamera offenbar nicht, ob Vorder- oder Hintergrund gemeint sind. Dann pumpt sie für eine Sekunde leicht, und keins von beidem wird scharf gestellt.

Insgesamt sehr brauchbar. Stabiler und verzögerungsärmer als der Zhiyun Transmitter (andere kenne ich halt nicht), und der Touchfokus ist auch - für's Erste - nicht schlecht gemacht.

zum Bild


Tip 1: vorm Start der App die "Ausrichtungssperre" des Smartphones einschalten. Also die Auto-Orientierung aus. Ihr wisst schon.
Tip 2: wenn man den EVF benutzt und den Monitor als MF/AF-Touch-Pad, ist es besser, in den Touch-Pad-Settings auf Seite 46/53 >Operation Area auf Right 1/2 zu setzen. Dadurch triggert man als Rechtsäuger nicht versehentlich das Tracking mit der Nase. Wie auch immer, für den Remote über Berührung des Smartphone-Displays muss diese Einstellung wieder auf Full Screen.

Space


Antwort von Mediamind:

Neben der einstellbaren Geschwindigkeit bei Wechsel der Farbtemperatur im Modus Auto WB habe ich die 3 Speicherplätze für Custom Settings als hilfreich empfunden. Nicht weil es sie gibt (die Konkurrenz hat das auch im Portfolio), sondern die Kamera gibt die Farbtemperatur nach einer Spotmessung als konkreten Wert aus. Meine anderen Kameras verschweigen mir, welche Farbtemperatur sie auf der Graukarte sehen. Das macht beim Multicamshoot die Sache für mich einfacher. Gerade bei Mischlicht kann das eine nette Hilfe sein. Den Messwert übernehme ich dann für die anderen Kameras. Feine Sache.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Neben der einstellbaren Geschwindigkeit bei Wechsel der Farbtemperatur im Modus Auto WB habe ich die 3 Speicherplätze für Custom Settings als hilfreich empfunden. Nicht weil es sie gibt (die Konkurrenz hat das auch im Portfolio), sondern die Kamera gibt die Farbtemperatur nach einer Spotmessung als konkreten Wert aus. Meine anderen Kameras verschweigen mir, welche Farbtemperatur sie auf der Graukarte sehen. Das macht beim Multicamshoot die Sache für mich einfacher. Gerade bei Mischlicht kann das eine nette Hilfe sein. Den Messwert übernehme ich dann für die anderen Kameras. Feine Sache.

Wenn ich im Cam-Memory-Modus bin, steht mir Custom WB leider nicht zur Verfügung. Ich muss in den Movie-Modus wechseln. Dort wird mir zwar, wie du sagst, die momentane Farbtemperatur in Hunderterschritten angezeigt (aktuell 6100°K). Wenn ich aber wieder in 1,2 oder 3 bin, ist diese Speicherung weg, und ich müsste manuell über "K" gehen.

Warum bleibe ich also nicht gleich im Movie-Modus?

Nun ja, das tu ich auch. Es ist nur ein bisschen schade, weil es schon 20-30 Sekunden kostet, jedesmal nach dem Einschalten zu checken, ob alle Parameter passen.

Space


Antwort von Mediamind:

Kann ich nachvollziehen. Ich wechsle eigentlich nur zwischen Moviemodus und S&Q. Dafür habe ich mir die Framerate für den S&Q Modus in den Schnellzugriff über das einblendbare Menü gelegt. Mehr brauche ich derzeit nicht. Ich habe (noch) keine passende Verwendung für 1,2 und 3 gefunden.

Space


Antwort von Mediamind:

Nachdem ich beim Black Friday zwei 128 GB Lear V90 Karten geschossen habe, konnte ich zu der vorher erworbenen V90 von Kingston einen Vergleich ziehen. Die Kingston funktioniert zwar mit bis zu 120 fps, ist aber um Klassen langsamer als die Lexarkarten. Sie erreicht noch nicht einmal das Niveau einer Sandisk Extreme Pro beim Schreiben. Die Lexarkarten schaffen mit dem Black Magic Speedetest ca. 190 MB/s im Schreibvorgang und lesen mit ca. 230 MB/s.
Die Kingston schafft mal gerade 35-45 MB/s zu schreiben, dafür aber 177 MB7s im Lesemodus. Ist das beiden anderen Kingstonkäufern auch so gravierend langsamer?

Space


Antwort von roki100:

Auch unter Kingston selbst, gibt es doch unterschiede. Wie mit V30, ist mit V90 sicherlich nicht anders. Beispiel: Kingston CANVAS React, ist langsamer als Kingston CANVAS Select PLUS. Und dazu kommt noch, dass das Ganze auch vom Karten lese/schreib Gerät abhängig ist. Beispiel mein "renkforce" ist langsamer als "transcend". Bei den Karten lese/schreib Komponenten in der Kamera ist das wahrscheinlich auch so.

Space


Antwort von rush:

Mediamind hat geschrieben:
konnte ich zu der vorher erworbenen V90 von Kingston einen Vergleich ziehen. Die Kingston funktioniert zwar
Führe doch bitte nochmal an welche Karten Du konkret hast und in welcher Größe... Kingston hat ja auch ziemlich viele Karten im Markt - da ist das jetzt nicht ganz so eindeutig worauf Du dich beziehst.
Geht es um die Canvas React Plus Modelle oder ein anderes Derivat? Denn wie roki richtig erwähnt ist bei Kingston selbst die Canvas Reihe etwas durcheinander geraten.

Space


Antwort von Mediamind:

Es handelt sich um die 128 GB Version der Canvas React Plus. Ich retourniere sie. Das ist mir zu riskant, ich brauch keine Drop Frames bei höheren Schreibraten.

Space


Antwort von cantsin:

Mediamind hat geschrieben:
Es handelt sich um die 128 GB Version der Canvas React Plus. Ich retourniere sie. Das ist mir zu riskant, ich brauch keine Drop Frames bei höheren Schreibraten.
Habe exakt diese Karte, mit der folgenden Performance laut AJA System Test (mit den anspruchsvollsten Dauer-Parametern):

kingston.PNG
Dein Exemplar dürfte entweder defekt oder im schlimmsten (aber leider nicht unwahrscheinlichen) Fall eine Fälschung sein.

Space


Antwort von rush:

Meine Tests sind auch mehr als zufriedenstellend mit den React Plus Karten gewesen - inkl. problemloser Nutzung in der P4K in diversen Flavors.
Würde daher auch empfehlen das ggfs. nochmal genauer zu checken.

Space


Antwort von Axel:

Bei mir auch. XAVC-i in 50p ohne Murren.

Space


Antwort von r.p.television:

Ich habe folgende Karten auch schon mehrmalig randvoll geschrieben mit UHD XAVC S-I 50p (teilweise sogar 60p was ja auch nochmal 100mbit mehr ausmacht). Ich habe alle aufgelisteten Karten jeweils 2mal.

https://www.amazon.de/gp/product/B08588 ... UTF8&psc=1

https://www.amazon.de/gp/product/B012PL ... UTF8&psc=1

Da sind auch die eben erwähten React Plus dabei. Bisher alles ohne ein einziges Problem.
Nur nicht die Sandisk ohne V90 kaufen. Bei denen verweigert die A7siii die Zusammenarbeit für All_Intra und man kann damit nur Sachen machen als ob es eine V30 wäre.

Diese hier habe ich retouniert weil unbrauchbar: (die Geschwindigkeitsangabe ist irrelevant, die Karten MÜSSEN das V90-Badge haben)

https://www.amazon.de/gp/product/B01JYU ... UTF8&psc=1

Space


Antwort von klusterdegenerierung:

Hab auch so eine ähnliche Lexar Pro, ist leider langsamer als wesentlich günstigere und macht mehr Ärger als alle anderen.

Ich muß noch mal eine Lobhymne auf die Samsung Pro trällern, denn die sind bei mir im ewigen Dauerfeuer und die waren mit Abstand die günstigsten Karten von allen und ich habe gleichzeitig mit ihnen noch nicht ein Problem gehabt.

Ich glaube die werden total unterschätzt und interessant auch, das die bezeichneten Werte im Gegensatz zu anderen Brands exakt übereinstimmen.
Mußte ich doch noch mal los werden.

Space


Antwort von Mediamind:

Ist schon komisch. Ggf. liegt das ja auch an meinem Messverfahren. Ich nutze den mitgelieferten USB Kartenlesen und habe es auch mit dem von Lear probiert. Das Ergebnis ist nach wie vor nicht gut. In der Kamera hatte ich bisher keine Probleme. Vielleicht sollte ich es einfach dabei belassen.
Es gab übrigens ein Fatalist Browse Update, in den reales Notes fand sich der Hinweis, dass man an der A7SIII den Stabi aus macht oder aber auf Aktiv schaltet. Das wäre neu. Damit geht man kein Risiko ein, ich nutze sowieso immer die Einstellung Aktiv, die Ergebnisse wirken auf mich natürlicher. Ich werde das einmal ausprobieren.

Space


Antwort von Mediamind:

Erster Test aus der Hand im häuslichen Umfeld: Gyrostabiliserung in Catalyst Browse läuft mit Steadyshot auf "Active" ohne Probleme.

Space


Antwort von rush:

Checke die React Plus Karten doch ggfs Mal via CrystalDiskMark - idealerweise in unterschiedlichen Readern und an unterschiedlichen USB Ports .. vielleicht hast du da ja bereits irgendwo 'nen Flaschenhals drin. Manchmal mögen bestimmte Controller entsprechende Gegenstellen aus unerklärlichen Gründen nicht.

Ich hatte seinerzeit jedenfalls sehr flotte Resultate - auch wenn die erste Karte leider vom Beginn an "tot" gewesen ist.
Die zweite und auch die Austauschkarte sowie eine später dritte gekaufte laufen seit jeher tadellos und ohne Fehler.

Hier wurde die React Plus im übrigen getestet in diversen Benchs - die Ergebnisse solltest Du in etwa auch erreichen können. Ich habe meine Resultate nicht mehr im Kopf aber sie waren ähnlich angesiedelt meine ich:

https://www.kitguru.net/tech-news/featu ... -review/3/

Space


Antwort von klusterdegenerierung:

Puh, das ist dann schon mehr als peinlich.
Ohne dieses Monsterrig hätte es wohl garnicht gewackelt. :-)

https://www.youtube.com/watch?v=hx4P1-NH3k0

Space


Antwort von Mediamind:

Da bekomme ich Rückenschmerzen, wenn ich das nur sehe :-)

EIne Frage stellt sich mir jedoch, die ich nicht ganz erklärt bekomme. Im XAVC HS Codec sind keine 25p möglich. Ich muss dann auf 50p gehen und werfe jeden 2. Frame weg. Gibt es irgendeinen Grund, warum Sony kein 25p implementiert hat?

Space


Antwort von klusterdegenerierung:

Ich hatte mir mal ne Cinema 4K bestellt, die kam 1 Jahr danach.

Space


Antwort von r.p.television:

Mediamind hat geschrieben:
Da bekomme ich Rückenschmerzen, wenn ich das nur sehe :-)

EIne Frage stellt sich mir jedoch, die ich nicht ganz erklärt bekomme. Im XAVC HS Codec sind keine 25p möglich. Ich muss dann auf 50p gehen und werfe jeden 2. Frame weg. Gibt es irgendeinen Grund, warum Sony kein 25p implementiert hat?
Da ich meine A7siii damals 2 Stunden vor einem Dreh bekommen habe, hat mich genau diese Frage fast zum Wahnsinn getrieben, weil ich dachte ich wäre zu blöd. Im Endeffekt nicht wirklich begreiflich.

Space


Antwort von Mediamind:

Ging mir genau so. Nach dem Motto: Was Sie schon immer über Codecs wissen wollten, aber bisher nicht zu fragen wagten
Ich dachte, ich wäre zu blöd um das hinzubekommen und es läge an meinem Unverständnis. Ich habe auch nie etwas dazu gehört, dabei ist das so merkwürdig. Der Codec ist hocheffizient und dann macht man alles unnütz wieder größer durch 50P....

Space


Antwort von rush:

klusterdegenerierung hat geschrieben:
Puh, das ist dann schon mehr als peinlich.
Ohne dieses Monsterrig hätte es wohl garnicht gewackelt. :-)

Wahrscheinlich hatte er vorher 'ne Kiste oder Optik mit Stabi ;)
So bringt auch die vermeintlich beste Kamera in der Tat wenig wenn sie falsch eingesetzt wird.

Space


Antwort von r.p.television:

Was ich ja interessant finde ist das Gemecker aller Youtuber dass sie das XAVC HS (H.265) nicht schneiden können weil ihr Computer es nicht schafft. Sie betonen dabei immer dass sie den "neuen" Mac irgendwas haben aber sie müssen zu Proxies wechseln.
Ich hab hier einen 3000 Euro Desktop-PC und das Material läuft in Premiere absolut flüssig ohne Ruckler. Bei mir ist eine 2080 Ti Grafikkarte an Bord. Apple hat da scheinbar wie so oft ein Problem mit der Wiedergabe von diversen Codecs. Die Kamera kann eher nichts dafür.

Space


Antwort von rush:

Entsprechende Nvidia Karten können h.265 Material dekodieren. Meine 1070 noch nicht, aber die Nachfolge-Generation der 2000er und 3000er können das demnach sehr wohl.

Apples M1 beherrscht das aber meines Wissens nach auch - dafür benötigt es also keine 3000€ Maschine sondern die richtige Hardware und in der Windows Welt ggfs dann noch die passende Software um die GraKa diese Dekodierung übernehmen zu lassen... Dann flutscht es auch mit überschaubaren Budget.

Space


Antwort von r.p.television:

Ich finde es immer nur lustig dass ein bestimmtes Klientel "den neuesten Mac" als Speerspitze der Technik betrachtet und wenn ihre Hardware es nicht schafft MUSS ja ein Fehler in der Matrix sein. Mein Desktop PC von Ende 2019 ist aber scheinbar ein Jahr voraus. Man braucht wie Du schon sagst nur die richtigen Komponenten.

Space


Antwort von klusterdegenerierung:

Ich finde das muß man garnicht so zynsch darstellen, denn es liegt ja in der Natur der Sache, da ein Mac immer eher als komplett Lösung daher kommt und nicht als neuste Einszelteile.

Da verwundert es doch nicht, das wenn dann mal ein neuer daher kommt, man sich dann überlegt ihn zu kaufen.
Mal ne neue CPU oder Graka einparken ist da ja nicht so angesagt, von daher finde ich dieses verhalten völlig normal und den Umständen entsprechend.

Ein Freund von mir macht es im übrigen beim PC genauso und kauft sich alle Jahre wieder einen prekonfigurierten Dell.

Space


Antwort von Axel:

Effizienz und kleine Dateigrößen sind nicht alles. Zum Glück gibt's in der Kamera Alternativen zu H.265. Also z.B. alles in 50p aufnehmen zu müssen, weil die Kamera kein 25p in HEVC kann, ist für ein weiterer Grund nicht sauer zu sein, dass der Codec meine Hardware nicht mag (bzw. umgekehrt).

Space


Antwort von r.p.television:

klusterdegenerierung hat geschrieben:
Ich finde das muß man garnicht so zynsch darstellen, denn es liegt ja in der Natur der Sache, da ein Mac immer eher als komplett Lösung daher kommt und nicht als neuste Einszelteile.

Naja, so wie die Kameraden das betonen "i have the newest Mac Pro blablabla...for xxxxx $$$" und es zum Vorwurf erheben dass sie nun trotz allem Proxies nutzen müssen. Denn nach ihrer Auffassung schafft es kein Computer der Welt das Zeug zu schneiden. Und so kommunizieren sie das dann auch. Ein Blick über den Tellerrand wäre manchmal hilfreich, erst recht wenn seit einem Jahr Hardware existiert die das ohne weiteres kann und vermutlich günstiger ist.

EDIT: Soll jetzt kein Apple-Bashing sein. Ich will hier nur betonen dass man das HEVC 10bit 422 durchaus mit irdischen Mitteln schneiden kann. Und durchaus mit seit länger verfügbarer Hardware und keiner Weltraumtechnologie.

Space


Antwort von roki100:

also PC-Hardware ersetze ich öfter gegen neu, ohne auf Apple MacOS verzichten zu müssen (Hackintosh). Letztens von NVIDIA auf Radeon RX 580 8GB (wegen Catalina)... und davor CPU, mehr RAM etc. Läuft wie immer super.

Space


Antwort von r.p.television:

Gerade gefunden:

https://www.youtube.com/watch?v=H5Rat4xxkUg

Hab mal ein Profil anhand der Settings erstellt und werde es bei einem Dreh testen. Ich bin gespannt. Habe desöfteren einen Dreh wo alles Out-of-Cam schön aussehen soll. Das wäre eine echte Bereicherung und würde eine alte FS7 wohl schlecht dastehen lassen.

Space


Antwort von rush:

r.p.television hat geschrieben:
Denn nach ihrer Auffassung schafft es kein Computer der Welt das Zeug zu schneiden. Und so kommunizieren sie das dann auch. Ein Blick über den Tellerrand wäre manchmal hilfreich, erst recht wenn seit einem Jahr Hardware existiert die das ohne weiteres kann und vermutlich günstiger ist.

EDIT: Soll jetzt kein Apple-Bashing sein. Ich will hier nur betonen dass man das HEVC 10bit 422 durchaus mit irdischen Mitteln schneiden kann. Und durchaus mit seit länger verfügbarer Hardware und keiner Weltraumtechnologie.
Kann man sich direkt knicken und bringt oft nichts mit Apple-Hardlinern über sowas zu sprechen... es bringt am Ende des Tages oft nur schlechte Laune :-)
Und selbst wenn nicht sein kann was nicht sein darf: Ist dann halt kein Mac und viel zu kompliziert alles mit diesem Bluescreen-Windows...

Gibt aber zum Glück auch immer öfter Nutzer die aus privaten oder beruflichen Gründen in beiden Welten "unterwegs" sind und dann jeweils die verschiedenen Vor und Nachteile beider Systeme kennen - mit denen kann man dann zumindest hier und da 'ne Runde quatschen/fachsimpeln. Alles andere gebe ich mir eigentlich auch nicht mehr sondern nicke dann nur freundlich und belasse es bei der heilen Apple-Welt wenn jemand nur noch diesen engen Blickwinkel meint fahren zu müssen.

Letzten Endes zeigt der Thread aber sicherlich ganz gut wo die Reise hingehen kann und das h.265 kein Teufelswerkzeug sein muss wenn ein paar Komponenten und die Software darauf angepasst sind... aber das war seinerzeit bei AVCHD bzw. den ersten Derivaten von h.264 doch keinen Deut anders. Damals habe ich meine Hard,- und Software auch genau darauf ausgelegt hab - mit QuickSync in Kombination mit Edius, weil das lange Zeit tatsächlich ganz hervorragend funzte während andere noch gefühlte Ewigkeiten Intermediates generierten und das für das größte hielten... Mir war's wumpe. Jeder muss seinen Weg finden - und die Türen stehen heute offener denn je. Der klein M1 und nachfolgende Apple Chips werden das sicher genauso gut im Griff haben wie entsprechend dedizierte GraKas.

@r.p.: Berichte gern... ich würde mir eine A7 auch möglichst so hindrehen das ich in der Post nicht mehr allzu viel erledigen muss. Das spart Zeit und Geld wenns bereits out of the box mehr oder weniger passt.

Space


Antwort von Axel:

rush hat geschrieben:
r.p.television hat geschrieben:
EDIT: Soll jetzt kein Apple-Bashing sein. Ich will hier nur betonen dass man das HEVC 10bit 422 durchaus mit irdischen Mitteln schneiden kann. Und durchaus mit seit länger verfügbarer Hardware und keiner Weltraumtechnologie.
Kann man sich direkt knicken und bringt oft nichts mit Apple-Hardlinern über sowas zu sprechen... es bringt am Ende des Tages oft nur schlechte Laune :-)
Ach was, wer wird sich denn die Laune verderben lassen ...

For the record (EDIT: r.p. television war schneller):


Hab ich gerade auf PP9 gelegt. Noch nicht probiert, da wart ich morgen auf Sonne.

Von Marteen Heilbron ein Tip, den ich noch nicht kannte:
S. 10/54 > Exposure Ctrl Type > Flexible Exp. Mode. Damit lassen sich Custom Tasten belegen, z.B. die (von mir halt) selten benutzte AE-Lock-Taste mit
> Av Auto/Manual Switch.

Man drückt die Taste, die vorübergehend die Blendenautomatik aktiviert. Man drückt sie erneut, um die Blende dort zu fixieren (man braucht ja dann kein AEL). Wusste ich nicht.

Space


Antwort von Axel:

Bei Cine4 scheint Zebra 100+ zu sein und Base Iso 100. Damit ETTR oder was?

Space


Antwort von rush:

Axel hat geschrieben:
Bei Cine4 scheint Zebra 100+ zu sein
Sollte das Zebra nicht immer auch konfigurierbar sein? Würde mich zumindest wundern wenn es bei de A7sIII in einem bestimmten Profil nicht einstellen lassen würde. Oder meinst Du was anderes?

Space


Antwort von Axel:

rush hat geschrieben:
Axel hat geschrieben:
Bei Cine4 scheint Zebra 100+ zu sein
Sollte das Zebra nicht immer auch konfigurierbar sein? Würde mich zumindest wundern wenn es bei de A7sIII in einem bestimmten Profil nicht einstellen lassen würde. Oder meinst Du was anderes?
Ich überbelichte krass, dann verschwinden bei SLog3 die Zebrastreifen bei ca 94%, bei Cine4 verschwinden sie nie. Wollte mich einfach nur vergewissern.

Space


Antwort von klusterdegenerierung:

r.p.television hat geschrieben:
EDIT: Soll jetzt kein Apple-Bashing sein. Ich will hier nur betonen dass man das HEVC 10bit 422 durchaus mit irdischen Mitteln schneiden kann. Und durchaus mit seit länger verfügbarer Hardware und keiner Weltraumtechnologie.
Jaa, Du weißt ja, die haben halt in den Achtzigern einen der ersten SW Scanner für Macintosh für schlappe 10 Riesen gekauft, da kann man Heute immer noch von partizipieren! :-)

Space


Antwort von klusterdegenerierung:

Kann mir mal jemand sagen, wo ich im Catalyst Browse diese Girodaten Geschichte finde, selbst mit den runtergelandenem A7SIII footage finde ich diese Funktion nirgends und was mir auch seit dem allerersten Tag tierichsch auf die Nüsse geht ist, das die oben bei den Audiospuren nicht gleich einen Muteknopf mit intigriert haben und man stattdessen erst rein klicken muß und dann den Volumeslider ganz nach links schieben muß.

Sony Sony, als Raucher würde ich mir auch ne Zigarette immer mit 2 Feuersteinen anzünden.

Space


Antwort von Mediamind:

Du kannst im Programm sehen, ob Gyrodaten im Clip enthalten sind. Das ist dieses lustige Symbol mit dem angedeutet wackeligen Filmstreifen (zwischen Clipbezeichnung und Typ: Bildschirmfoto 2020-12-19 um 13.51.42.png

Space


Antwort von klusterdegenerierung:

Ah oh, das heißt die sind nicht unbedingt automatisch vorhanden?

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Ah oh, das heißt die sind nicht unbedingt automatisch vorhanden?
Nur
a) wenn entweder kein Steady Shot oder
b) Active Steady Shot

eingeschaltet waren. Außerdem funktioniert es, dem Vernehmen nach, nicht mit allen Objektiven. Mit meinen 3 Sony EF-Mount aber schon.

Space


Antwort von Mediamind:

Mit meinen Sigma Art Linsen geht das auch. Active ist sowieso meine Standardeinstellung. Blöd ist, dass man während des Stabilisierens den Clip in CB rendert. Dadurch verliere ich Qualität. Ich habe schon vergebens nach einem Plugin gesucht, mit dem man innerhalb von FCPX nur den Teil, der sich in der Timeline befindet stabilisiert. Und noch ein Hinweis: Wenn ich von der SD-Karte in die FCPX Mediathek importiere, sind die Gyrodaten futsch.

Space


Antwort von Axel:

Jemand sollte ein Plugin für Sony-Gyrodaten-Stabilisierung schreiben, damit die Stabilisierung im NLE gerendert werden kann.

Space


Antwort von klusterdegenerierung:

Wie läuft das denn überhaupt wenn ich das durch geführt habe, schreibt der das in die alte Datei, oder wird eine 2. erstellt und ich hab dann bald alles doppelt?

Space


Antwort von Mantas:

klusterdegenerierung hat geschrieben:
Wie läuft das denn überhaupt wenn ich das durch geführt habe, schreibt der das in die alte Datei, oder wird eine 2. erstellt und ich hab dann bald alles doppelt?
wie du magst, aber lieber nicht überschreiben.

Space


Antwort von Mediamind:

Das ist ja das Blöde, die Datei wird gerendert und das noch nicht einmal gut.

Space


Antwort von Axel:

Als Ausgabecodec kann auf Macs auch ProRes wählen, allerdings nicht “wie Quellmaterial”. Insgesamt ist der Hauptvorteil von CB das Auslesen vieler Metadaten. Gyrostabilisierung ist beschissen gelöst.

Unglaublich, wenn man’s recht bedenkt. Die Funktion ist nämlich ansonsten revolutionär. Da zeigt sich mal wieder, dass Sony eine krachledernde Traditionsfirma ist, die im Ganzen keine Ahnung von Benutzerfreundlichkeit hat.

Space


Antwort von Axel:

Mal ‘ne andere Frage: Histogramm und Wasserwaage im selben Display, das geht nicht?

Space


Antwort von Funless:

Axel hat geschrieben:
Mal ‘ne andere Frage: Histogramm und Wasserwaage im selben Display, das geht nicht?
Das ging bei meinen Sonys die ich hatte noch nie. Oder geht das etwa bei deiner A-Sechstausendnochwas?

Space


Antwort von Axel:

Hätte ja sein können, nachdem ich dauernd irgendwelche mir unbekannten Funktionen entdecke. Die Benutzerdefinierbarkeit der Anzeigen in Display/Sucher ist deutlich ausbaufähig. Nein, bei der A6500 ging das auch nicht, das war aber wegen des eklatanten Rolling Shutters sowieso eine reine Gimbalkamera, also brauchte ich die Wassserwaage nicht.

Space


Antwort von rush:

Axel hat geschrieben:

Unglaublich, wenn man’s recht bedenkt. Die Funktion ist nämlich ansonsten revolutionär. Da zeigt sich mal wieder, dass Sony eine krachledernde Traditionsfirma ist, die im Ganzen keine Ahnung von Benutzerfreundlichkeit hat.
Und das wundert Euch jetzt wirklich?
Ist doch bei Sony seit Jahren so.. Da arbeiten verschiedenste Departments für ein und dasselbe Produkt ohne sich auf gemeinsame Nenner zu verständigen. Das sieht man bei den Fotoapparaten und den Menüstruktruren bis hinauf zu Kameras ala FS7, bei der sich an einem Ort im Menü Settings plötzlich auch auf andere beziehen, diese an der anderen Stelle aber nicht verändert werden können sondern man dann wieder zum ersten Punkt zurück muss etc pp.

Das ist leider Realität bei einer großen Firma wie Sony - gleiches lässt sich aktuell auch noch bei der Produktion eines deutschen Autobauers beobachten der auf Elektromobilität versucht umzustellen und Deadlines nicht gehalten werden können und man stattdessen wissend teilfehlerhafte Softwarestände rausgibt.

Das Problem ist in meinen Augen eher das die Hersteller gefühlt immer ihre eigene Suppe brauen wollen anstatt sich von Beginn an mit potentiellen Verbündeten zusammenzutun... Egal ob das jetzt Apple, avid oder BMD gewesen wäre - bevor solche Kameras auf den Markt kommen sollten die Hersteller von Software bereits die Chance haben entsprechende Tools/Lösungen zu integrieren.
Aber das geht ja scheinbar nicht mal in Vegas...

Unter dem Aspekt ist BMD natürlich gut aufgestellt wenn Hard,- und Software quasi Hand in Hand entwickelt werden. Da darf sich Sony und Co gern was von abschneiden und mehr in diese Richtung denken anstatt immer auf proprietäre Lösungen zu setzen die dann im schlimmsten Fall im Sande verlaufen. Denn ein ungewünschtes Re-Encoding durch eine zusätzliche Software kann ja nicht das zu erreichende Ziel sein.

Space


Antwort von Axel:

rush hat geschrieben:
Denn ein ungewünschtes Re-Encoding durch eine zusätzliche Software kann ja nicht das zu erreichende Ziel sein.
Es wurde entweder in den ersten Tutorials missverständlich dargestellt oder die neuere CB-Version macht es anders. Jedenfalls wendet man "Stabilisieren" an, und ohne Verzögerung kann man die Vorschau abspielen, die je nach Kamerabewegung unterschiedlich stark gecroppt ist - und diesen Crop kann man "manuell" durch einen Slider reduzieren, um sofort zu sehen, ob auch ein geringeres Einzoomen eine hinreichend gute Stabilisierung ergibt. Es erfolgt also keine "Analyse" mehr, sondern eine Direktanwendung, wie ein geglätteter Bewegungspfad anhand der Positionsdaten.

Das klingt banal. So, als wenn irgendein Datenbastler vom Schlage eines Vitali Kiselev (GH2-Hack) keine großen Probleme hätte, ein Plugin zu basteln. Crowdfunding. Sollten ja aufgrund der Lieferengpässe genügend A7Siii's im Umlauf sein.

Leider, leider, ist die A7Siii eine Reviewer-Kamera und eine episch-kinematische Romantiktester-Kamera, die gar keine Stabilisierung braucht, da die Filmer eh nur Herbstlaub-Stilleben damit aufnehmen. Schade.

Space


Antwort von Mantas:

Sony hat die SDKs allen NLEs scheinbar vor einem Jahr schon zugeschickt, es hängt nicht unbedingt an denen. Außer die machen ein eigenes Plug-in.

Space


Antwort von cantsin:

Das ist wahrscheinlich so ein typisches Ding, das 1-2 Jahre braucht, bis es in die Standard-NLEs einzieht und heutige Besitzer der Kamera noch 'early adopter'-Probleme haben.

Würde aber mal schwer davon ausgehen, dass die A7sIII für die nächsten Jahre gewissermaßen das Standard- und Referenzmodell für Video-DSLR- bzw. Spiegelloskameras wird (so wie früher die Canon 5D Mk II).

Space


Antwort von rush:

Hängt in meinen Augen auch ein wenig davon ab wie Sony die A9x/A7Rx und A7 IV Reihe aufstellen wird.

Wenn eine davon auch 10bit 422 @ 4k an die Hand bekommt könnte sich das Blatt schnell wenden und die A7s eher ein Spezialtool bleiben... Nach dem Erscheinen der damaligen A7III griffen viele auch direkt zu diesem Modell anstatt auf die für videozwecke gemünste A7s zu setzen. Zumindest ist das in meinem Umfeld, privat als auch beruflich größtenteils der Fall gewesen.

Space


Antwort von Axel:

@rush
Ja, die A7IV soll angeblich 10bit 422 haben bis 4k 60p, allerdings soll sie ungefähr 2900 € kosten. A9 iii, A7RV, A7IV - sie alle könnten ohne weiteres ja Gyrodaten an Bord kriegen. Zehntausende Videohybrid-Shooter würden dann mit gyrostabilisierbaren Kameras durch die Gegend rennen und - was sonst? - zuhause mit Catalyst Edit (180 € im Jahr) schneiden:

zum Bild


Es gibt eine Testversion, aber ich habe keine Lust, sie zu laden.

Space


Antwort von klusterdegenerierung:

Warum auch, Mr Perfect kennt das Ergebnis ja auch ohne Test!

Space


Antwort von rush:

Axel hat geschrieben:

Es gibt eine Testversion, aber ich habe keine Lust, sie zu laden.
Kannst Du dir in der Tat auch sparen - ich habe es getan und würde mir als zahlender Sony-Kunde (im Falle des Kaufs einer A7sIII) auch noch veräppelt vorkommen.
Nicht nur das man für die Software monatlich ala Adobe löhnen soll - nein viel mehr werden noch nicht einmal die h.265 Files aus der A7sIII von der Software im aktuellen Stand erkannt/importiert. Es gibt noch überhaupt kein passendes 2020er Update für h.265 Inhalte in Catalyst Edit.

Darüber hinaus ruckeln sich auch noch die h.264 10Bit 60p Files bei mir einen ab, während sie in Resolve oder auch dem MPC-HC ja praktisch flüssig laufen.

In dieser Version ist Catalyst Edit wirklich ein schlechter Scherz, von den eher rudimentären Funktionen mal ganz abgesehen... absolut unverständlich und man kann nur hoffen das Sony diese Software nicht im Zusammenhang mit der A7sIII bewirbt.

Space


Antwort von TomStg:

klusterdegenerierung hat geschrieben:
Das man in Catalyst die Thumbansicht nicht nach Datum sortieren kann, ist für mich schon wieder ein Ausschlußkriterium.
Du behauptest das immer wieder, es ist aber immer noch falsch.
Die Sortierung der Clips - zB nach Datum - passiert im Suchen-Modus. Diese Sortierung wird im Anzeigen-Modus übernommen.

Space


Antwort von klusterdegenerierung:

Na Tom, selbst auf Heiligabend auf Krawall gebürstet, traurig traurig.
Das auch Du nicht lesen kannst, denn ich spreche vom Thumbmodus beim browsen, dort werden keine Sortierungsoptionen angezeigt und man muß zu Liste wechseln und dort nach Datum sortieren anwählen.

Wenn man dann allerdings wieder zurück in die Thumbansicht geht, ist die Datumssortierung futsch.
Aber ich nehme mal an, da Sony mir dies in einer Supportmail bestätigt hat, weißt Du es sicherlich besser!

Auch Dir einen schönen Heiligabend ohne Frust und Aggressionen.

Space


Antwort von r.p.television:

Also solange es keine Plugin-Version für die NLEs gibt, ist die Stabilisierung-Funktion von Catalyst-Browse für mich total uninteressant. Wie soll denn da der Workflow sein? Man rendert neue Intermediates? Das ist ja wie vor etwa 10 Jahren mit nem Mac wo man immer ProRes batchen musste damit Final Cut auch H.264 schluckt.
Bis dahin schubse ich dann doch lieber - falls überhaupt nötig - den WarpStabi von Premiere drüber. Dank dem kaum vorhandenen RS funktioniert das nun auch sehr gut. Schwierig ist eigentlich nur noch wenn man versucht einen Talking Head der close im Bild ist zu stabilisieren, weil er versucht das Gesicht zu stabilisieren und der Bildrand dann umherwobbelt. Sowas kriegt man aber auch mit Masken hin falls unbedingt erforderlich. Und eben alles onBoard ohne Zwischenrendern. Auf sowas hätte ich in 2020 keinen Bock mehr.

Space


Antwort von TomStg:

klusterdegenerierung hat geschrieben:
Das auch Du nicht lesen kannst, denn ich spreche vom Thumbmodus beim browsen, dort werden keine Sortierungsoptionen angezeigt und man muß zu Liste wechseln und dort nach Datum sortieren anwählen.

Wenn man dann allerdings wieder zurück in die Thumbansicht geht, ist die Datumssortierung futsch.
Aber ich nehme mal an, da Sony mir dies in einer Supportmail bestätigt hat, weißt Du es sicherlich besser!
Sorry, tut mir leid.
Ich konnte nicht wissen, dass es für Dich eine Zumutung ist, die Clips in den beiden Ansichten Suchen/Anzeigen nur mit den kleinen Thumbs zu sortieren und auszuwählen.

Space


Antwort von klusterdegenerierung:

TomStg hat geschrieben:
Sorry, tut mir leid.
Ich konnte nicht wissen, dass es für Dich eine Zumutung ist, die Clips in den beiden Ansichten Suchen/Anzeigen nur mit den kleinen Thumbs zu sortieren und auszuwählen.
Sorry, tut mir leid.
Ich konnte nicht wissen, das andere Arbeitsansätze für Dich eine Zumutung sind.

Ich drücke Dir ganz fest die Daumen, das sich niemand in Deiner Familie oder Freundeskreis befindet, der anders denkt als Du.
Frohes Fest.

Space


Antwort von Mediamind:

r.p.television hat geschrieben:
Also solange es keine Plugin-Version für die NLEs gibt, ist die Stabilisierung-Funktion von Catalyst-Browse für mich total uninteressant. Wie soll denn da der Workflow sein?
Sehe ich ähnlich. ABER....
Du hast einen Shot mit Steady Shot Active gefilmt, Wackler sind entstanden und Warp und Co (Ich nutze Lock an Load) führen zu keinem schönen Ergebnis, dann hast Du die zusätzliche Möglichkeit den Clip in CB zu stabilisieren. Das kann einen durchaus retten.
Im letzen vorletzten Jahr hatte ich eine Szene am Rande einer Trauung, die vom Kunden unbedingt gewünscht war und sie war verwackelt. Mit keinem meiner Möglichkeiten wurde das Ergebnis gut, mit der Gyrostabilisierung wäre das zu retten gewesen. Ausgeliefert habe ich dann ein für mich eigentlich nicht akzeptables Resultat. Waren zwar nur wenige Sekunden, hat mich aber total gestresst, es nicht besser hin zu bekommen. Solange ich kein Plugin habe, ist das für mich eine Absicherung für genau diese Fälle.
Wobei man berücksichtigen muss, dass der Shutter einem das Ergebnis ebenfalls verhageln kann. Wenn die Korrektur zu stark ist, schmiert das Bild bei einem Shutter von 180 Grad.

Space


Antwort von Axel:


An den Weihnachtsfeiertagen habe ich jetzt zum ersten Mal im Stile eines Hochzeitsvideoten, der ich war, konsistent in Lowlight gefilmt, nicht nur getestet, obwohl der ganze Kram auch ein Test war. Die Familie filmte das üppige Kerzenlicht-Gelage auch mit Smartphones. In ISO 12800 ist es schon eine Lowlight-Kamera. Vor allem, weil die Farben nicht verkacken und weil man genügend Dynamik hat, um bei Kerzenlicht aufzunehmen, ohne dass die Flamme brutal clippt. Auf den Smartphone-Displays sahen deren Videos zunächst ganz brauchbar aus, aber die Farben und die Artefakte waren doch im Direktvergleich etliche Klassen schlechter.

Andere Hoch-ISOs produzieren, wenn man genauer hinsieht (was ich natürlich tue) merkwürdig strukturierte Pixelklumpen-Artefakte. Brauchbar nur als Notbehelf und wenn man die verrauschten Bereiche in der Post crushen kann.

Ich testete (und teste noch) mehrere Farbraum-Konvertierungs-Workflows mit Resolve, auf derselben 2-Minuten-Sequenz. Spannend ist z.B. die Nutzung der neuen HDR-Farbkreise:


Auch, etwas tiefer gehend, Abwedeln und Nachbelichten mittels Parallel-Nodes und ausgeschaltetem Luma-Mix als bessere Alternative zu grobschlächtigen curves:


Ein sehr mächtiges und Respekt einflößendes Programm. Ein Colorist werde ich wohl nie, aber jetzt, mit der A7Siii, macht das Bearbeiten einfach Spaß.

Space


Antwort von Funless:

No offense, doch so langsam scheint (wie aktuell auch bei einem Virus zu sehen) der next-camera-disorder in einen best-color-disorder zu mutieren.

Space


Antwort von roki100:

Axel hat geschrieben:
Ein sehr mächtiges und Respekt einflößendes Programm. Ein Colorist werde ich wohl nie, aber jetzt, mit der A7Siii, macht das Bearbeiten einfach Spaß.
Bald kommt von Dir cinematische Aufnahmen Sony like Arri bei YouTube oder bei Vimeo wegen bessere Qualität ;)

Space


Antwort von klusterdegenerierung:

Etwas lustig in dem Zusammenhang ist aber schon, das mitmal viele User 13K Iso & mehr brauchen. :-)
Bevor dies (möglich) war, ist man nicht auf diese Idee gekommen und wollte/mußte meißt nicht über 6400 gehen, was für amtliche Aufnahmen eh schon etwas entfernt von der Realität war.

Doch nun wo man die Möglichkeiten bekommt, scheint es auch die Bedürfnisse zu geben, womit auch die ersten quängeleien los gehen.
Wenn ich schon eine Cam habe, die es tatsächlich schafft auf 13K Ebene wirklich nutzbare Ergebnisse zu erzielen,
dann stellt sich mir wirklich die Frage warum man da noch über höhere und damit schlechtere Bedingungen philosophiert.

Jahre lang Pommes rotweiß gegessen und einmal a la carte und schon sind die Pommes für immer vergessen. ;-))

Space


Antwort von roki100:

Mit Euch, die Sony-Abteilung, ist gar nicht lustig, sondern alles so Ernst... ;)

Space


Antwort von klusterdegenerierung:

roki100 hat geschrieben:
Mit Euch, die Sony-Abteilung, ist gar nicht lustig, sondern alles so Ernst... ;)
Wir habens halt nicht so gut wie ihr, wo man brauchbare Aufnahmen nur bis 800Iso schafft, aber dafür internes Raw kann. :-)

Space


Antwort von roki100:

wir, die Abteilung Fairchild, filmen nicht mit Nachtsichtgerät im dunkel, sondern tagsüber mit cinema Kamera... ;)

Space


Antwort von Axel:

Funless hat geschrieben:
No offense, doch so langsam scheint (wie aktuell auch bei einem Virus zu sehen) der next-camera-disorder in einen best-color-disorder zu mutieren.
Warum das mMn nicht vergleichbar ist: Resolve ist kostenlos, und der einfachste Workflow, weil er nur eine einmalige Projekt-Voreinstellung benötigt (ACES) hebt einen mit einem Schlag meilenweit über woanders verbrochene Look-Mätzchen hinaus, weil man mit einem hochglanzpoliert aussehendem Bild beginnt.

Jede darauf noch aufbauende Verfeinerung ist eine selbstgenügsame, harmlose Beschäftigung wie Schals Stricken oder Flaschenschiffe Bauen. Kein durch seine eigene innere Natur bedingt unerreichbares Ziel wie das Streben nach einer noch nicht existenten Kamera oder das Sammeln von Gimbal-Pümpeln.

Eine Gemeinsamkeit gibt's für den kleinen Träumer trotzdem. Es kommt bei einer komplexen Bearbeitung (für mich) unweigerlich der Punkt, an dem mir klar wird, dass ich nur noch Murks mache. Es ist also wichtig, sich einen Workflow anzueignen, der vielleicht bescheiden ist, aber dessen Ziel zumindest in Sicht und erreichbar ist.
roki100 hat geschrieben:
Bald kommt von Dir cinematische Aufnahmen Sony like Arri bei YouTube oder bei Vimeo wegen bessere Qualität ;)
Ist alles nur Spaß, Hobby. Ich spiele rum, und das ständig. GH2- und Pocket-HD-Niveau. Die A6500 war mir zu bockig.

Space


Antwort von roki100:

@Axel
ist doch ein schönes Hobby. Ich filme meinen kleinen Sohn, Familie usw. Habe das einmal bei einem Kollegen gesehen der seine Familie filmte und das ganze professionell wie ein (dokumentarische) Film...Der cinematische Look (war wohl orange und teal) hat mich sofort infiziert... Ich dachte früher, eine Kamera (z.B. Sony A6000) reicht aus...habe mich aber getäuscht. Empfohlen wurde mir dann eine RAW Kamera. Heute weiß ich aber, dass auch 10Bit h264/5 oder ProRes ausreicht.

Space


Antwort von r.p.television:

Mediamind hat geschrieben:
r.p.television hat geschrieben:
Also solange es keine Plugin-Version für die NLEs gibt, ist die Stabilisierung-Funktion von Catalyst-Browse für mich total uninteressant. Wie soll denn da der Workflow sein?
Sehe ich ähnlich. ABER....
Du hast einen Shot mit Steady Shot Active gefilmt, Wackler sind entstanden und Warp und Co (Ich nutze Lock an Load) führen zu keinem schönen Ergebnis, dann hast Du die zusätzliche Möglichkeit den Clip in CB zu stabilisieren. Das kann einen durchaus retten.
Im letzen vorletzten Jahr hatte ich eine Szene am Rande einer Trauung, die vom Kunden unbedingt gewünscht war und sie war verwackelt. Mit keinem meiner Möglichkeiten wurde das Ergebnis gut, mit der Gyrostabilisierung wäre das zu retten gewesen. Ausgeliefert habe ich dann ein für mich eigentlich nicht akzeptables Resultat. Waren zwar nur wenige Sekunden, hat mich aber total gestresst, es nicht besser hin zu bekommen. Solange ich kein Plugin habe, ist das für mich eine Absicherung für genau diese Fälle.
Wobei man berücksichtigen muss, dass der Shutter einem das Ergebnis ebenfalls verhageln kann. Wenn die Korrektur zu stark ist, schmiert das Bild bei einem Shutter von 180 Grad.
Ich nutze für sehr spezielle Fälle (also wo beispielsweise Interviews verwackelt sind) den Stabilzer von Boris Continuum. Dort kann man beispielsweise den Rand hinter der Person selektieren, damit der Stabilizer nicht versucht das logischerweise wackelnde Gesicht zu stabilisieren. Das ist zwar ein wenig doof weil hier keine Stapelverarbeitung bei getrennten Clips geht sondern immer nur einzeln, rettet dann aber die Footage und der Clip. Das geht ja beim bordeigenen Werkzeug in Premiere nicht. Ich weiss nicht welche Stabilizer es noch gibt die sowas können, aber hier geht das direkt im NLE ohne irgendwelche Intermediates. Und seitdem die A7s iii mit so wenig RS aufwartet werden die Ergebnisse auch sehr viel besser.

Space


Antwort von Axel:

r.p.television hat geschrieben:
Ich nutze für sehr spezielle Fälle (also wo beispielsweise Interviews verwackelt sind) den Stabilzer von Boris Continuum.
Da für mich wackelfreie Aufnahmen wichtig sind, auch bei Hand/Schulterkamera, brauche ich Software-Stabilizer eigentlich nie. Schön wäre natürlich eine sorglose Handkamera, die aussieht wie ein (aber ungewohnt dynamischer) Gimbalshot, wie hier zu Anfang:


Brandon Li sagt, man kann fast perfekte Gimbalshots, auch mit proportionalem Shutter, zu 100% perfekten Aufnahmen machen durch Gyro. Deshalb schon schade, dass es kein NLE-Rendern gibt oder wenigstens Catalyst-Export in einer von mir voreingestellten Qualität.

Aber wer weiß? Vielleicht mangelt es genau diesen Aufnahmen an Wabi Sabi. Vielleicht ist es mit Kameraführung ähnlich wie mit der perfekten Quantisierung in modernen Musikprogrammen. Ich sah kürzlich die Beschwerde eines Musikers, aller modernen Popmusik fehle die Seele wegen des mathematisch perfekten Timings.

Space


Antwort von r.p.television:

Wir werden je nach Anspruch an wackelfreies Delivery noch lange Postpro-Stabilisierung brauchen. Wenn beispielsweise BTS von einem aufgeregten Assi dazu kommt. Oder man gerade nur halb fertig mit dem Setup ist und der Interviewpartner plötzlich weg muss und man mit einem 85mm aus der Hand filmt, zuvor aber schnell 2 Stockwerke hochgerannt ist. Es ist leider immer wieder so dass man mit ungünstigen Bedingungen kämpfen muss. Umso besser wenn interne Stabilisatoren, geringer RS und gute Postpro Stabis zusammenarbeiten. Die Ergebnisse mit der A7s iii sind jedenfalls um Lichtjahre besser als beispielsweise mit einer A7iii. Wenn man die Footage einer A7iii stabilisiert sorgt das bereits bei nur geringem Einzoomen für Wackelpudding-Bilder.

Space


Antwort von klusterdegenerierung:

Und wenn dann alles pefekt wackelfrei ist gibt es das Wackel Pro Plugin und tutos wie man seinen Gimbal so einstellt, das er unruhig läuft bzw man schaltet ihn ab und mit der 12K Ursa nimmt man in 720p auf, damit es besser rüber kommt.

Space


Antwort von r.p.television:

klusterdegenerierung hat geschrieben:
Und wenn dann alles pefekt wackelfrei ist gibt es das Wackel Pro Plugin und tutos wie man seinen Gimbal so einstellt, das er unruhig läuft bzw man schaltet ihn ab und mit der 12K Ursa nimmt man in 720p auf, damit es besser rüber kommt.
Ja, für die Douchebag-Generation durchaus denkbar. Wenn da ein Bild für 50 Frames unverwackelt und ungeschnitten ist werden sofort die Handys gezückt um sein Instagram-Profil zu checken.
Interessant finde ich auch wie inflationär nun die VHS-Look-Plugins benutzt werden. Was ich teilweise noch im Rotoscoping-Verfahren aus kaputter Footage rausgemalt habe wird nun künstlich eingefügt.

Space


Antwort von Axel:

Axel hat geschrieben:
Mediamind hat geschrieben:
Neben der einstellbaren Geschwindigkeit bei Wechsel der Farbtemperatur im Modus Auto WB habe ich die 3 Speicherplätze für Custom Settings als hilfreich empfunden. Nicht weil es sie gibt (die Konkurrenz hat das auch im Portfolio), sondern die Kamera gibt die Farbtemperatur nach einer Spotmessung als konkreten Wert aus. Meine anderen Kameras verschweigen mir, welche Farbtemperatur sie auf der Graukarte sehen. Das macht beim Multicamshoot die Sache für mich einfacher. Gerade bei Mischlicht kann das eine nette Hilfe sein. Den Messwert übernehme ich dann für die anderen Kameras. Feine Sache.

Wenn ich im Cam-Memory-Modus bin, steht mir Custom WB leider nicht zur Verfügung. Ich muss in den Movie-Modus wechseln. Dort wird mir zwar, wie du sagst, die momentane Farbtemperatur in Hunderterschritten angezeigt (aktuell 6100°K). Wenn ich aber wieder in 1,2 oder 3 bin, ist diese Speicherung weg, und ich müsste manuell über "K" gehen.

Warum bleibe ich also nicht gleich im Movie-Modus?

Nun ja, das tu ich auch. Es ist nur ein bisschen schade, weil es schon 20-30 Sekunden kostet, jedesmal nach dem Einschalten zu checken, ob alle Parameter passen.


Gerade gesehen. Leuchtet ein. Muss ich bei Tag mal probieren.

Space


Antwort von Axel:

Genialer Workaround. Ich brauche natürlich immer eine Graukarte, das muss ich mir mal angewöhnen. Ist mit flexibler Blendenautomatik-Toggle-Taste (ähnliches Prinzip), die ich bereits auf der AEL-Taste liegen habe, doppelt wichtig. Flugs zu Amazon, dem großen Pestilenz-Gewinnler! AWB Lock Toggle lege ich auf C4. Da hatte ich bis jetzt den Default, nämlich "In-Camera Guide". Um dessen Wert schätzen zu lernen und das Funktionsprinzip nachzuvollziehen genügt ein Beispiel. Drückt man bei gewähltem "Spot Metering Point" auf die Guide Taste, erscheint eine Tafel: Sets Spot Metering Point.

Einziger Nachteil ist, dass ich nicht sehe, welcher Kelvin-Wert gewählt wurde, wie Mediamind das gelobt hat.

Aber kein Problem, da der AWB Lock nur aktiv ist, wenn ich auch in AWB bin. Und das stell ich halt im Movie Modus rasch um.

Space


Antwort von Mediamind:

Gar nicht schlecht. Damit hat man seine WB schnell eingestellt. Ist auf jeden Fall schneller, als wenn den "normalen" Weg über Messfeld und speichern wähle. Wobei ich bei der A7sIII die Auto WB zu 80% mittlerweile nutze. Die schockfreie Anpassung der WB ist ein guter Weg, bei Mischlicht zu arbeiten. Bei Kunstlicht wähle ich konservativ die WB nach wie vor manuell selber.

Space


Antwort von Mediamind:

Axel hat geschrieben:
r.p.television hat geschrieben:
Ich nutze für sehr spezielle Fälle (also wo beispielsweise Interviews verwackelt sind) den Stabilzer von Boris Continuum.
Da für mich wackelfreie Aufnahmen wichtig sind, auch bei Hand/Schulterkamera, brauche ich Software-Stabilizer eigentlich nie. Schön wäre natürlich eine sorglose Handkamera, die aussieht wie ein (aber ungewohnt dynamischer) Gimbalshot, wie hier zu Anfang:


Brandon Li sagt, man kann fast perfekte Gimbalshots, auch mit proportionalem Shutter, zu 100% perfekten Aufnahmen machen durch Gyro. Deshalb schon schade, dass es kein NLE-Rendern gibt oder wenigstens Catalyst-Export in einer von mir voreingestellten Qualität.

Aber wer weiß? Vielleicht mangelt es genau diesen Aufnahmen an Wabi Sabi. Vielleicht ist es mit Kameraführung ähnlich wie mit der perfekten Quantisierung in modernen Musikprogrammen. Ich sah kürzlich die Beschwerde eines Musikers, aller modernen Popmusik fehle die Seele wegen des mathematisch perfekten Timings.
Hatte ich an andere Stelle schon erwähnt: Mit der neuen Version von CB kann man die Active Stabilisierung mit Gyro in der Post nutzen. Sowohl Brandon L. als auch der hier verlinkte Beitrag geben explizit an, man müsse alle Stabilisierungen ausschalten. Ich weiß allerdings nicht, wie sich das bei Active + Objektivstabilisierung gestaltet. Das könnte gegeneinander arbeiten. Da ich aber zu 90% das Sigma Art 24-70 ohne vorhandene objektivseitige Stabilisierung nutze, ist das für mich nur hypothetisch. Cool dabei ist, dass man dann wirklich die Clips stabilisiert, die es nötig haben. Das macht die Geschichte handlicher.

Space


Antwort von Mediamind:

Was ich noch nicht hinbekomme, ggf. ja auch gar nicht möglich ist:
Wenn ich eine Menschengruppe habe wird auf eine beliebige Person scharfgestellt. Die anderen Personen werde mit einem grauen Kasten als Gesichter erkannt. Kann ich sinnvoll und schnell zwischen den einzelnen Personen wechseln ohne über Touch AF zu gehen? Bei der Nikon ist diese Funktion ganz gut gelöst, bei der A7SIII habe ich hierzu noch nichts gefunden.

Space


Antwort von r.p.television:

Die Funktion der Gyrodaten-Stabilisierung mag zukunftsweisend sein. Aber solange das nur extern über Prerendering aus CB heraus funktioniert ist das für mich uninteressant. Sowas muss direkt im NLE funktionieren.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Gar nicht schlecht. Damit hat man seine WB schnell eingestellt. Ist auf jeden Fall schneller, als wenn den "normalen" Weg über Messfeld und speichern wähle. Wobei ich bei der A7sIII die Auto WB zu 80% mittlerweile nutze. Die schockfreie Anpassung der WB ist ein guter Weg, bei Mischlicht zu arbeiten. Bei Kunstlicht wähle ich konservativ die WB nach wie vor manuell selber.
Kommt sehr auf die Situation an. Ich dachte gleich zu Anfang, hey, AWB ist bei dieser Kamera aber echt super, aber dann gab's schon etliche dadurch unbrauchbar gemachte Shots.

Meine augenblickliche Einschätzung zu Automatik-Funktionen bei dem, was ich selbst als eine Hobby-Cinema-Kamera betreibe ist, dass man blöd wäre, AF und AE nicht zu nutzen. AE lässt sich bei bewegter Kamera auch durch Shutter Priority nutzen. Dabei geht der proportionale Motion Blur flöten, weswegen die Methode von Puristen verachtet wird (während Brandon Li sie schon immer sehr sorglos benutzte, was sogar mir, dem "Kadenz-Blinden", auffiel). Aber die Anpassung der Belichtungszeit funktioniert komplett stufenlos, im Gegensatz zu Blendenautomatik ("A"). Wenn man den Verlust der Bewegungsunschärfe mal kurz außen vor lässt, ist das mindestens so gut wie der stufenlose Automatik-ND der FX6.

Aber es gibt für tatsächlich störende Strobo-Effekte durch diese AE-Methode in Resolve gleich zwei Abhilfen: in Studio den "Motion Blur", und in der freien Version dasselbe in Fusion, keyframebar.

Die dritte Methode zur automatischen Belichtungsanpassung, Auto ISO, habe ich bei der A6500 manchmal verwendet, aber jetzt nicht mehr. 640 und 128000, den Rest muss ich anders hinkriegen.

Die vierte Methode, Vari-ND oder fixen ND, möchte ich künftig nicht mehr benutzen. Filter vermindern die Bildqualität.

Und das kann ich in der Post besser. Wie bereits woanders geschrieben, kaufte ich mir, wieder Brandon Li folgend, die Tiffen BPM 1/8 und 1/4. Ich stellte fest, dass mit diesen beiden Filtern noch immer keine hinreichende Kontrolle möglich ist, wieviel Weichzeichnung bzw. Rolloff ich im Bild haben möchte. Dass ich aber mit verschiedenen Metoden genau das in Resolve sehr präzise kann. Mediamind, du benutzt ja m.W. nur FCP? Dafür gibt es ein kostenloses Plugin namens Better Glow, was das ziemlich vereinfacht.

Und obwohl die A7Siii eine gute, kompakte Gimbalkamera ist, fällt mir mit Active Shot auch normale Handkamera nicht schwer, bzw. gefällt mir überwiegend besser. Mittlerweile nutze ich dazu doch den smallrig Cage, der die Kamera durchaus noch etwas griffiger macht und auch Vorteile auf dem Gimbal hat.

Space


Antwort von Mediamind:

Den Gimbal nutze ich auch nur, wenn ich selber in Bewegung bin. Ansonsten filme ich aus der Hand. Zum Thema ND gibt es ein interessantes Produkt, den Revo Ring, welches ich mir noch zulegen werde:

https://www.youtube.com/watch?v=ng5cWYzPH7Y

Das würde für mich eine Menge Probleme lösen. Die Gläser sollen hochwertig sein und von Schott stammen. Ich habe einige 1.4 er Optiken, bei denen wird es absurd, wenn ich die im Sommer ohne ND nutze.
Die variable Belichtungszeit würde ich nur im Außenbereich ohne Kunstlicht wagen, ich habe sowieso schon immer mit billigen LEDs und anderen Garstigkeiten an den Locations zu kämpfen.

Und ja: Ich nutze ausschließlich FCPX. Das Plugin habe ich mir gerade einmal geladen. Die Funktion erschliesst sich mir spontan noch nicht. Schaue ich mir später einmal genauer an.

Space


Antwort von Alex:

Mediamind hat geschrieben:
Die variable Belichtungszeit würde ich nur im Außenbereich ohne Kunstlicht wagen,
Wieso sollte Kunstlicht Probleme bereiten? Oder was meinst du genau?

Space


Antwort von rush:

Xume ist halt bei Verwendung vieler Optiken recht teuer wenn man alle Gläser und Filter entsprechend ausstatten will - und es ändert nichts an der Tatsache weiterhin einen Filter an vorderster Front zu haben, sei er noch so gut. Im WW muss man zudem aufpassen da durch den Magneten die Filter etwas weiter vorstehen als bei einer reinen slim schraublösung.

Aber berichte gern wenn du darauf umsteigen solltest - ich hatte mich seinerzeit auch damit befasst aber bin zu einer anderen Lösung gekommen, die jedoch nicht KB tauglich ist...

Space


Antwort von Mediamind:

"Alex T" hat geschrieben:
Mediamind hat geschrieben:
Die variable Belichtungszeit würde ich nur im Außenbereich ohne Kunstlicht wagen,
Wieso sollte Kunstlicht Probleme bereiten? Oder was meinst du genau?
Hallo Alex, je nach Shutter bekommst Du Flickerprobleme. Bei einem Shutter von z.B. 1/60 kann man das schön bei üblicher Beleuchtung sehen. Ich habe das vor Kurzem einmal für meine Hausbeleuchtung durchprobiert. Das Flackern der Lampen ist in Teilen sehr spezifisch. Bei einem Shutter von 1/50 hat man die wenigsten Probleme. Chinakracherbeleuchtungen mal außen vor.
@ Rush: Bei dem verlinkten Beitrag wird der RevoRing ebenfalls behandelt. Dieser zeichnet sich durch einen Schnellverschluss und einer Kombination aus hochwertigem variablen ND und Polfilter aus. Man kann ihn mit einem Griff montieren/demontieren und auf unterschiedliche Durchmesser (eine Version umfasst den für mich wichtigen Bereich von 67-82 mm) mit einem Dreh adaptieren und gleichzeitig sehr fest montieren. Kai W und Philipp Bloom waren sehr hiervon angetan:
https://www.youtube.com/watch?v=9vJIrIyokjI

Mit meiner Kamera hätte ich dieses Kunststückchen nicht gewagt (Min 1:05).

https://www.youtube.com/watch?v=alWnyf1-w5o

Space


Antwort von Alex:

Mediamind hat geschrieben:
Hallo Alex, je nach Shutter bekommst Du Flickerprobleme. Bei einem Shutter von z.B. 1/60 kann man das schön bei üblicher Beleuchtung sehen. Ich habe das vor Kurzem einmal für meine Hausbeleuchtung durchprobiert. Das Flackern der Lampen ist in Teilen sehr spezifisch. Bei einem Shutter von 1/50 hat man die wenigsten Probleme. Chinakracherbeleuchtungen mal außen vor.
Dann würde ich das Licht in deinem Fall anders bezeichnen. Kunstlicht bezeichnet in unserer Branche eher warmes Licht um 3200K. Grob beschrieben wird dein geschildertes Flickern von einer Interferenz zwischen Lichtfrequenz und Belichtungszeit erzeugt. Hat aber nix mit dem Begriff Kunstlicht zu tun.

Space


Antwort von Mediamind:

Ok, dann ist das in unserer Branche eben so. Man lernt doch nie aus. Dann nennen wir es eben nicht Kunstlicht, sondern eben anders. Z.B. nicht natürliches Licht, welches aber kein Kunstlicht ist. Ist ein wenig sperrig aber wenn es denn in unserer Branche so ist, dann sei ei drumm. Ich kürze es einfach als NNLKK ab, dann haben wir eine brauchbare Bezeichnung. Wenn ich meiner Assistentin zurufe: "hej, Vorsicht wir haben erhebliche Anteile an NNLKK" wirkt das irgendwie auch seriöser.
Spaß beiseite (bitte nicht gefoppt fühlen), bei einer Hochzeit in Recklinghausen hatte ich es mit MASSEN an LED zu tun, die in allen Bereichen Interferenzen zu bieten hatten. Bunt und vielfältig. Mit einem Shutter von 1/50 war das schon schlimm, bei anderen Verschlusszeiten wurde es allerdings richtig unangenehm. von daher setze ich auch bei der A7SIII auf ND, statt auf Variationen der Verschlusszeit.

Space


Antwort von rush:

Ich würde auch soweit es geht versuchen eine Verschlusszeiten-Automatik zu meiden - insbesondere wenn das rückwertige Display möglicherweise die einzige Kontrollinstanz ist... Auf diesen Winz-Displays ist leichtes Flickern je nach Umgebung nicht immer sofort ersichtlich - im Schnitt dann umso eher.

Space


Antwort von Axel:

Die Situationen, in denen ich einen ND im Innenraum, Kunst- oder Tageslicht, verwendet habe, kann ich an einer Hand abzählen. Also ich meinte natürlich Außen, Tag. Das sind die Situationen, in denen die Verschlusszeit-Frequenz oder auch die Bildfrequenz (PAL/NTSC) gar keine Rolle spielt, weil die Lichtquellen nicht wechselstromabhängig sind. Innen ist es selten zu hell.

Exkurs über Step-up-Ringe, magnetische Filter, Sonnenblenden, Matteboxen und Co:
XUME ist ein elegantes System, und ich habe es, inklusive der Objektivkappen. Es ist für mehrere Objektive und Filter gerechnet sehr teuer. Eine weitere Milchmädchenrechnung und ein überall verbreiteter Mythos ist, dass man alle seine Objektive mit Adapterringen an das mit dem größten Filterdurchmesser anpasst und einen großen Filter kauft (eventuell den PolarPro Peter McKinnon Edition für 300 €? Das erinnert mich an die Currywurst mit echtem Blattgold gegen Aufpreis, eine typische Düsseldorfer Dekadenz). Ein typisches Nicht-Cine-Set reicht von 52mm bis 77mm oder sogar 82mm. Wie oben beschrieben, wenn das kleinste davon weitwinklig ist, wird's schwierig. Zudem brauchen die meisten modernen mehrfachvergüteten Objektive nicht mehr zwingend eine Sonnenblende. Aber sie brauchen sie spätestens dann, wenn Zusatzglas davor kommt. Mit den Step-Up-Ringen passen dann natürlich die speziell für die Brennweite berechneten Originale nicht mehr, sodass man zusätzlich zu den Ringen, Magneten und Filtern (und Revo ist auch Glas) noch zusätzlich mehrere 77 oder 82mm Sonnenblenden (Tulpe, Kniffelbecher) braucht. Zum Schrauben oder magnetisch? Pfff. Da ist dann irgendwann der Gedanke einleuchtend, dass man gleich Nägel mit Köpfen macht und eine Mattebox kauft.

Aber wozu? Damit man sich mit der extra Windschutzscheibe nicht unerwünschte Reflexe einfängt und damit schnelle Bewegungen im Freien nicht allesamt aussehen wie die der Zombies aus 28 Days Later?

Ohne Filter (und den ganzen anderen Lakritz-Schmarren, da muss ich bei dem schwarzen Zeug immer dran denken) kann man weise lächelnd die original-Sonnenblende davor bajonetten. Oder sogar darauf verzichten, weil einen ein leichter Reflex gar nicht stört. Dann sieht man sich's zuhause an, merkt, dass in etwa 10-20% der Aufnahmen ein zu kurzer Shutter dem kritischen Pixelpeeper-Auge überhaupt auffällt. Und dann wendet man ReelSmartMotionBlur bzw. verwandte Methoden an. Ich weiß, es gibt sie für Apple (als Plugin oder selbstgebaut via Motion), Adobe (mindestens in AAE) und, wie gesagt, in Resolve Studio und Free. Wenn man sich Brandon Lis Passion of Andalucía ansieht, dann gibt es darin einige Strobo-Schwenks. Das kümmert offenbar ihn und die 37.000 Youtube-Bejubler und weitere 865.000 mutmaßlich wohlwollende Viewer nicht sonderlich. Bevor man sich durch allzu ängstliche Beachtung der Filmlook-Merkmale (darum geht es hier, nicht wahr?) selbst ausbremst und durch Tonnen von teurem und fummeligem Zubehör-Geraffel eine dynamische Aufnahme nicht mehr zustande kommt, sollte man mal einen Moment überlegen.

Was tu ich hier gerade? Propagiere ich "fix it in post"?

Da hier auch das 50Hz-Flackern bei ungünstigem Shutter und bei chinesischen LEDs erwähnt wurde: auch da gibt es in Resolve einen Filter dagegen. Ich habe diesen mal ausprobiert und war sehr positiv überrascht.

Selbstverständlich würde ich bei Kunstlicht lieber 25p und 1/50 Shutter nehmen, also keinen Automatik-Shutter. Aber eine der Nachteile der Sony A7Siii ist nun einmal, dass sich der Shutter gar nicht an die Bildrate koppeln lässt, wie in dedizierten Cinema-Kameras.

Und hier finde ich es interessant, dass gewissermaßen, in jeder Situation, in der die A7Siii ein vermeintliches Problem hat, Resolve eine Abhilfe hat. Videomäßig scharf aussehende Bilder? Glow. Flache SLog-Profile? Eine ganze Reihe guter Workflows. Nur 1080 bei 8- bis 10-facher Zeitlupe? Superscale. Rauschfilter, Motionblur, De-Flicker. Ich schluckte zuerst, als das kostenlose Resolve meine A7Siii-Clips nicht importieren wollte (ich schneide in FCP, aber ich korrigiere in Resolve), aber mittlerweile finde ich die 200 €, die ich hier im Forum für die Lizenz bezahlt habe, läppisch. Genau wie ich nicht finde, dass die A7Siii teuer ist für das, was sie kann.

Space


Antwort von Mediamind:

Flicker Free hatte ich bei der Recklinghauser Hochzeit auch bereits in Erwägung gezogen. Da es aber kein gut bnezahlter Job war, habe ich dann doch nicht die 149 USD investiert. Überigens, der YTer hat ebenfalls die vorhandene Beleuchtung als Kunstlicht bezeichnet (der Stachel sitzt tief :-)
Axel, Du hast ja Recht, man kann für ein bißchen mehr Motion Blur den Aufwand ins Absurde ausufern lassen. Bei vielen Verwendungen sieht die Kundschaft den Unterschied gar nicht. Bei Drohne z.B. mache ich mir keine Köpfe mehr, ob ich die 180 Grad Regel einhalte oder nicht. Ich gehe da zwar nicht auf 1/1000 Shutter, die NDs verwende ich aber eher großzügig geschätzt und nicht mach der reinen Lehre des heilgen 1/50-stels.
Beim Wechsel des Eye-AF von einer zu einer anderen Person innerhalb einer Gruppe bin ich weiter. Entweder Touch AF oder den Focusrahmen begrenzen. Ein Wechsel von Person zu Person über einen Funktionskey geht leider nicht. Da ich mit dem Sucher arbeite, ist das für mich eher unpraktisch. Ich arbeite aus der Hand nicht gerne mit dem Backsidemonitor.

Space


Antwort von klusterdegenerierung:

Resolve hat ein eigenes sehr gut funktionierendes Flicker free, da lohnt das Plugin kaum.

Space


Antwort von Mediamind:

Resolve ist ohne Frage ein gutes Programm. Ich scheue nur den Spagat zwischen verschiedenen NLE. Bei FCPX fühle ich mich über die Jahre hinweg immer sicherer und entdecke trotzdem immer wieder für mich neue Möglichkeiten. In Summe habe ich darüber hinaus eine Menge Geld in Plugins investiert. Ich muss mich selbst disziplinieren und nicht auf jeden Zug aufspringen, ansonsten kommt man am Ende nirgend an. Bild, Ton, Licht, Drohne, Buchhaltung, Rechtliches, ... sind schon ein sooo weites Feld. 2021 will ich die Dinge unkomplizierter gestalten. Ich bin eindeutig ein Gearboy. Ich schleppe immer zu viel Zeugs mit mir herum. Besser wird das Ergebnis auch mit dem 3. Ersatzrecorder und der 10. Optik nicht. Eher im Gegenteil, es hält mich ab zu Filmen. Seit der A7SIII nutze ich zu 90% nur noch diese Kamera und nur noch das 24-70 Art. Dann kommt das 85 mm f:1.4 und selten das 70-200.
Das deckt sich mit der Erfahrung von diesem YTer, man braucht nicht mehr:

https://www.youtube.com/watch?v=VZscF6QX-qY

Neben ausgedünnter Ausrüstung habe ich für 2021 vor (sollte in diesem Jahr überhaupt geheiratet werden) den Ton besser hinbekommen und vor allem mit Assistenz zur arbeiten. Ich stehe kurz davor, mir eine 2. A7SIII zuzulegen und meine Assistentin damit auszustatten. Dann dürfen die Gh5en in den Ruhestand gehen.

Space


Antwort von rush:

@Mediamind... Ich bin momentan auch dabei etwas zu entschlacken. Nur fehlt mir noch die "passende" Sony dafür ;-)

Wahrscheinlich wird es bei mir perspektivisch dann iwann die A7r V / A9xx werden - sofern Sony diese in Sachen Video nicht unnötig kastriert.
Die krassen LowLight Fähigkeiten der A7SIII benötige ich nicht / habe ich nie gebraucht.

Ein nutzbarer S35 Crop Mode in guter 4K 10Bit Quali und ebenso 10bit @ 4K FF müssten aber schon an Board sein - dann wäre der Umstieg von der A7rII für mich ziemlich eindeutig vorgegeben - und die Pocket 4K würde dann vermutlich auch früher oder später wegen akuter Wenignutzung gehen.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Resolve ist ohne Frage ein gutes Programm. Ich scheue nur den Spagat zwischen verschiedenen NLE. Bei FCPX fühle ich mich über die Jahre hinweg immer sicherer und entdecke trotzdem immer wieder für mich neue Möglichkeiten.
Ich bin ja auch ein FCP-Fanboy. Ich darf dir aber sagen, dass der Roundtrip mittels FCPXML eine Sache von 30 Sekunden ist. SLog3 kannst du in FCP sorglos schon im Inspektor mit Kamera-LUT SLog3 überziehen (Browser >alle Clips auswählen), ohne für Resolve was kaputtzumachen. Du kannst alle Pages vor Color getrost überspringen. Die Post, die dir Resolve Studio bietet, müsstest du in FCP durch viele Plugins teuer bezahlen, und die sind nicht so gut. Stichwort Tracker. Der ist gut und einfach. Und viele, viele Features, für die man eine lange Liste bräuchte. Allein der neue Color Warper ist ähnlich wie Cinema Grade, Verschieben von Farbe, Sättigung und Helligkeit direkt auf dem Bild.

Tip: wenn du mal Zeit hast, mach ein kleines Testprojekt in 8-bit (erlaubt die freie Version), schick's nach Resolve und importiere dort "Timeline von XML" (o.ä.). Alle Einstellungen werden automatisch übernommen. Dann siehst du, wie gut das gelöst ist.

Space


Antwort von Mediamind:

Lowlight ist für mich umso wichtiger, früher musste ich Handstände machen, damit ich bei abendlichen Gesellschaften klar kam. Jetzt habe ich eher das Problem, dass mir die Qualität des Lichts nicht zusagt und das kann man mit geringen Aufwand fixen. Das ist im Vergleich zu vorher ein Luxusproblem. Meine S1 werde ich erst einmal behalten, in Sachen Dynamik und Optiken habe ich hier einfach tolle Optionen. Mal schauen, was Sony 2021 noch alles zu bieten hat. Eine Nachfolge der A7III mit 10 Bit wäre nice und würde den Rahmen nicht sprengen.
@Axel: Da der Lockdown mich praktisch seit 2020 aus dem Rennen geworfen hat, werde ich das einmal probieren. Cinema Grade habe ich seinerzeit teuer gekauft und es läuft (noch) nicht mit dem M1. Außerdem habe ich keinen guten Workflow in FCPX zur Einbindung des Colorcheckers von A-Rite, der in Cinema Grade ist einfach schlecht gelöst und ich will keinesfalls in das eigentlich obsolete Color Finale investieren. Resolve bietet da ja einen geeigneten Workflow, soweit ich weis.

Space


Antwort von Alex:

Mediamind hat geschrieben:
Überigens, der YTer hat ebenfalls die vorhandene Beleuchtung als Kunstlicht bezeichnet (der Stachel sitzt tief :-)
Sorry, ich hab mir das nicht ausgedacht :)
Stimmt schon, dass der Begriff "Kunstlicht" in der Branche nicht wirklich gut gewählt ist und aufs Glatteis führt. Warmlicht wäre m.E. passender mit der Unterscheidung, ob es sich um Profi-Equipment handelt oder nicht.
Ansonsten kann man auch Begriffe wie "Practicals", "vorhandene Lichtquellen", "Motivbeleuchtung", "Raum-, Gartenbeleuchtung" oder ähnliches verwenden...

Space


Antwort von roki100:

Mediamind hat geschrieben:
https://www.youtube.com/watch?v=VZscF6QX-qY
Sehr schön...so muss es sein.... bei der Atmosphäre, Licht und all die schöne Menschen, würde das ganze mMn auch mit GH5en super aussehen. Eben anders, als wenn ein paar Bayer in Leder Latex Latzhosen tanzen und die Helene hin und her durch die Berge und Wälder hin zu ihren zukünftigen Ehemann wandert... ;)

Space


Antwort von Mediamind:

Lieber Roki, das triggert meine Verbundenheit mit Bayern und den Menschen dort :-)
So eine richtig ländliche Hochzeit ist doch ein Highlight:
https://www.youtube.com/watch?v=_UX0yHmJUNg
Ist übrigens mit einer Gh5 aufgenommen.

Space


Antwort von klusterdegenerierung:

Mediamind hat geschrieben:
Resolve ist ohne Frage ein gutes Programm. Ich scheue nur den Spagat zwischen verschiedenen NLE.
Wenn es nicht so viele Clips betrifft gibt es ja auch noch die Möglichkeit diese in Resolve zu entflickern und zu exportieren und dann hinterher in FCP gegen das originale auszutauschen.

Space


Antwort von roki100:

Mediamind hat geschrieben:
Lieber Roki, das triggert meine Verbundenheit mit Bayern und den Menschen dort :-)
So eine richtig ländliche Hochzeit ist doch ein Highlight:
https://www.youtube.com/watch?v=_UX0yHmJUNg
Ist übrigens mit einer Gh5 aufgenommen.
haha... ;) Ja auch schön, nur eben anders.... ;)

Space


Antwort von pillepalle:

"Alex T" hat geschrieben:
Mediamind hat geschrieben:
Überigens, der YTer hat ebenfalls die vorhandene Beleuchtung als Kunstlicht bezeichnet (der Stachel sitzt tief :-)
Sorry, ich hab mir das nicht ausgedacht :)
Stimmt schon, dass der Begriff "Kunstlicht" in der Branche nicht wirklich gut gewählt ist und aufs Glatteis führt. Warmlicht wäre m.E. passender mit der Unterscheidung, ob es sich um Profi-Equipment handelt oder nicht.
Ansonsten kann man auch Begriffe wie "Practicals", "vorhandene Lichtquellen", "Motivbeleuchtung", "Raum-, Gartenbeleuchtung" oder ähnliches verwenden...
Korrekterweise hätte man tatsächlich flimmerfreies Licht sagen müssen, wenn man diese Eigenschaft meint. Denn es ist eben nicht mehr davon abhängig, ob es künstlich erzeugt wird (siehe HMI oder LED), oder ob es sich um Tageslicht handelt. Ist aber schon ein wenig Erbsenzählerei, denn normalerweise versteht man aus dem Zusammenhang, welche Eigenschaft des Lichts gemeint ist. Zumal eigentlich alle haushaltsüblichen Lichtquellen flackern ...außer vielleicht Kerzen, oder das Kaminfeuer :)

In der Fotografie ist übrigens Dauerlicht der Oberbegriff für alle Lichtarten (unabhängig von der Farbtemperatur), wenn man es z.B. von Blitzlicht unterscheiden möchte. Mit dem Begriff Kunstlicht war künstliches Licht gemeint (im Gegensatz zu Tageslicht, bzw. natürlichem Licht) und es bezieht sich meist auf Licht mit einer Farbtemperatur von 3200K (Wolfram) oder 3400K (Halogen), da künstliches Licht früher diese Farbtemperatur hatte. Kann aber eben in Zeiten von HMI und LED Leuchten (die ja auch künstlich sind) auch zu Verwirrung führen, wenn man nicht weiß, ob damit die Farbtemperatur, die Art der Beleuchtung (Dauer- oder Blitzlicht), oder die Natur des Lichts gemeint ist (künstlich oder natürlich). Auch Begriffe wie Heisslicht, sagen spätestens seit HMI Licht nichts über die Farbtemperatur aus.

VG

Space


Antwort von Mediamind:

Heute habe ich einmal den FTP Transfer zu einer Diskstation über Wlan ausprobiert. Das läuft wie Schmitz Katze.

Space


Antwort von Mediamind:

Ich habe gerade einen Film geschnitten. Ein paar Szenen waren nicht ganz optimal, bei 200 mm und dicken Minusgraden hat es bei mir gewackelt. In FCPX habe ich das Häckchen bei "Stabilisierung" gemacht. Mache ich eigentlich nicht gerne, die Ergebnisse sehen dann teilweise schlechter aus, als wenn ich den Wackler einfach gelassen hätte. Nun ja... was soll ich sagen (Spannungsbogen wird aufgebaut...) ...
Das Ergebnis ist außergewöhnlich gut. Viel zu gut. Eigentlich unplausibel gut. Das hat nicht mehr mit dem Entwackeln zu tun, welches ich in FCPX kannte. Der Clip ist wie festgenagelt ohne komisches Zappeln z.B. des Hintergrundes. Das sieht aus, wie das Ergebnis nach durchgeführter Gyrostabilisierung mit Catalyst Browse.
Kann es sein, dass FCPX nun die Gyrodaten zur Stabilisierung nutzt? Probiert das einmal aus und gebt einmal eine Rückmeldung. Bin ich auf dem Holzweg?

Space


Antwort von r.p.television:

Mediamind hat geschrieben:
Ich habe gerade einen Film geschnitten. Ein paar Szenen waren nicht ganz optimal, bei 200 mm und dicken Minusgraden hat es bei mir gewackelt. In FCPX habe ich das Häckchen bei "Stabilisierung" gemacht. Mache ich eigentlich nicht gerne, die Ergebnisse sehen dann teilweise schlechter aus, als wenn ich den Wackler einfach gelassen hätte. Nun ja... was soll ich sagen (Spannungsbogen wird aufgebaut...) ...
Das Ergebnis ist außergewöhnlich gut. Viel zu gut. Eigentlich unplausibel gut. Das hat nicht mehr mit dem Entwackeln zu tun, welches ich in FCPX kannte. Der Clip ist wie festgenagelt ohne komisches Zappeln z.B. des Hintergrundes. Das sieht aus, wie das Ergebnis nach durchgeführter Gyrostabilisierung mit Catalyst Browse.
Kann es sein, dass FCPX nun die Gyrodaten zur Stabilisierung nutzt? Probiert das einmal aus und gebt einmal eine Rückmeldung. Bin ich auf dem Holzweg?
Nein. Das ist auch bei mir so und hat schlicht mit der rekirdverdächtig schnellen Auslesezeit des Sensors zu tun. Ein weiterer grosser Vorteil der A7SIII.

Space


Antwort von Alex:

Mediamind hat geschrieben:
Das Ergebnis ist außergewöhnlich gut. Viel zu gut.
Zeig doch mal...

Space


Antwort von Mediamind:

Gerne. Die Clips sind immer identisch, bis auf die Stabilisierung. Ich habe es in HD ausgegeben und 4K aufgenommen (oder andersherum).
https://www.dropbox.com/s/78dmuggjffice ... t.m4v?dl=0
Die Stabilisierung wirkt jetzt so, als ob ich die Kamera ganz ruhig bewegt hätte. Besonders bei dem zugefrorenen Bootsstegen ist das gut zu sehen.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Gerne. Die Clips sind immer identisch, bis auf die Stabilisierung.
Ich war früher, mit normalen Camcordern, nie der Zitterer-Fürchter. Wurde erst dazu mit DSLMs. Aber der Active Mode und der quasi nichtexistente Rolling Shutter der A7Siii lassen mich wieder nachsichtig werden. Ich finde an leichter Instabilität deiner Vorher-Alternativen nichts augenfällig Schlimmes. Und so kleine Sachen auszubügeln, dazu reichten die eingebauten Stabis in FCP schon immer, und es war schon immer super, dass sie keine Echtzeit kosteten.

Zwei Fragen:
1. Wenn du jetzt eine neue Tele-Linse für die Sony kaufen müsstest, würde es dann das 70-200 f4 (das du ja wohl gerade hast)?
2. Wenn du jetzt einen Rechner für den Schnitt von A7Siii-Footage kaufen müsstest, würde es noch immer das MB Air M1? Und wenn ja, kommt es gut klar mit XAVC-S 10-bit?

Space


Antwort von Mediamind:

Wie gesagt: die Stabilsierungsergebnisse einer Gh5 oder Z6 in FCPX sind schlechter. Man sieht das gerne am Hintergrund, wenn der Vodergrund stabilsiert wurde. Die gezeigten Clips hingegen sind wie gesagt eher wie die Ergebnisse der Gyrostabilisierung aus Catalyst Browse. Ich bin heute noch mal mit Frau und Kind im Schnee unterwegs und werde einmal mehr wackeln probeweise ins Bild bringen. Bei kurzen Verschlusszeiten.
Zu Deinen Fragen: Das 70-200 f:4 ist gut aber nicht so gut wie das Pendant von Panasonic, welches ich für die S1 einsetzte. Dafür gibt es das Objektiv allerdings auch deutlich günstiger. Ich würde es erneut kaufen. Die f:4 haben einen Vorteil: Die Tiefenschärfe passt einfach super für den Filmbereich. Als Forograf würde ich Blende 2.8 bevorzugen, für Film ist das die bessere Wahl. vor allem ist es leicht, fokussiert unhörbar leise und die Länge verändert sich aufgrund innenliegender Fokussierung nicht. Dazu ist es auch noch gut verarbeitet. Für meine Zwecke eine klare Kaufempfehlung.
Das MB Air kommt prima mit dem 10 Bit-Material zurecht. In meinem Fall passt das als Interimslösung bis zur Verfügbarkeit der neuen iMacs. Meine Mädels bekommen dann das Air. Mein Workflow ist mit dem Air deutlich besser, als es mit dem MB Pro aus 2016 für 3K möglich war. Absolut flüssig. Bei den Effekten kommt er ins Stottern, deswegen habe ich Rendern im Hintergrund aktivieren müssen, dann läuft alles auch mit Effekten flüssig.

Space


Antwort von Axel:

Danke. Ich machte mir bezüglich des 70-200 dieselben Gedanken. Ich ärgere mich ja immer noch, dass das 18-105 f4 von meiner A6500 auf Vollformat 4k so stark vignettiert, denn es hat auch diese Eigenschaft, f4 durchgängig zu haben und nicht auszufahren. Mit dem durch 24MP Sensor voll nutzbaren 2 x Clear Image Zoom war es bezogen auf Vollformat ein 27-315mm. Und obwohl ich, wie viele, in Bezug auf Tele-Anschaffungen eher geizig bin, ertappe ich mich dabei, längere Brennweiten lieber zu benutzen. Auch deine Gedanken zum MBA finde ich schlüssig. Ich rechne mit der Einführung von neuen iMacs nicht vor dem Herbst, die Verfügbarkeit wird eher so um Weihnachten liegen, der Preis für meine Wünsche typischerweise 3k. Da ist eine Interimslösung nicht so doof.

Space


Antwort von Funless:

Also wenn ich kurz meinen Senf zum MB Air M1 geben darf (ohne diesen Thread jetzt kapern zu wollen), ich habe meins nun seit knapp zwei Wochen und was das Teil an Speed, bzw. flüssiger Bearbeitung hinlegt hab' ich bisher noch nie erlebt. Hatte spaßeshalber Resolve installiert und dort dann einen siebenminütigen Clip aus meinem X-S10 Material zusammengeschnitten mit Titelgedöhns, Sound Foleys und PiePaPo (wie allgemein bekannt, mache ich kein Colorgrading) und Export Renderzeit betrug etwas über zwei Minuten. Das MB Air wurde dabei lauwarm.

Dann den selben Clip in FCP zusammen montiert mit all dem Kladdaradatsch wie in Resolve und als ob das nicht reichen würde noch weiteres Footage hinzugefügt, so dass daraus ein elf Minuten Clip wurde und dann exportiert ... so schnell konnte ich gar nicht gucken wie's fertig gerendert war, gefühlte Schätzung eineinhalb Minuten und das MB blieb dabei kalt!

Also ich bin mit der Anschaffung mehr als zufrieden.

Sorry für OT.

Space


Antwort von rush:

Viele warten ja noch immer auf das hoffentlich kommende 70-200er 2.8. von Sigma in der DG DN Ausführung. Ich würde mich auch darüber freuen da mir die weißen Sony's einfach nicht gefallen.

Das Tamron 70-180er soll optisch ebenfalls sehr gut abbilden aber hat keinen Stabi und eben auch einen ausfahrenden Tubus was zwar im eingeschoben Zustand sehr kompakt ist aber spätestens mit Mattebox zum Problem wird.

Interessant das Du das 18-105er an KB nutzt - denn dafür ist es ja wirklich nicht gerechnet.

Eigentlich wäre ja das betagte 28-135er von Sony für die A7s oder entsprechende FXen wieder eine interessante Alternative, gebraucht aber auch neu sogar mehr oder weniger erschwinglich. Ist halt nicht ultra modern und der Servo weiterhin ziemlich nervig - aber von der Brennweite her, dem Funktionsumfang inkl AF und der konstanten Lichtstärke dann doch wieder eine mögliche Alternative über die man gewiss nachdenken kann wenn man einen Allrounder sucht.
Nutzt das Glas zufällig jemand von Euch? Mich würde interessieren ob der AF an der A7S III potent arbeitet oder modernere Gläser da eine spürbare Steigerung an selbiger erfahren?

Hin und wieder kommt mir der Gedanke der A7S III ja doch wieder in den Kopf - auch wenn ich eigentlich lieber 'nen Hybriden mit etwas erhöhter Fotoauflösung + Crop-Fähigkeit suche.
Die A7 IV werde ich mal noch abwarten - und dann abwägen. Vielleicht kommt auch die A7S III und ergänzt die vorhandene A7R II - wären dann halt zwei Bodys.

Space


Antwort von Axel:

Funless hat geschrieben:
Also wenn ich kurz meinen Senf zum MB Air M1 geben darf (ohne diesen Thread jetzt kapern zu wollen), ich habe meins nun seit knapp zwei Wochen ...
7 oder 8 Kerne? 8 GB oder 16 GB Ram?
rush hat geschrieben:
Viele warten ja noch immer auf das hoffentlich kommende 70-200er 2.8. von Sigma in der DG DN Ausführung.
Warten die darauf wie auf das legendäre Einhorn? Oder gibt es einen Industrie-Enthüller mit fundierten Spekulationen? Da würde ich gerne mitmunkeln.
rush hat geschrieben:
Interessant das Du das 18-105er an KB nutzt - denn dafür ist es ja wirklich nicht gerechnet.
Das ist es ja. Es ist nur mit einem beträchtlichen zusätzlichen Crop in 4k zu verwenden. Oder halt nur in 1080.
rush hat geschrieben:
Eigentlich wäre ja das betagte 28-135er von Sony für die A7s oder entsprechende FXen wieder eine interessante Alternative, gebraucht aber auch neu sogar mehr oder weniger erschwinglich. Ist halt nicht ultra modern und der Servo weiterhin ziemlich nervig - aber von der Brennweite her, dem Funktionsumfang inkl AF und der konstanten Lichtstärke dann doch wieder eine mögliche Alternative über die man gewiss nachdenken kann wenn man einen Allrounder sucht.
Nutzt das Glas zufällig jemand von Euch? Mich würde interessieren ob der AF an der A7S III potent arbeitet oder modernere Gläser da eine spürbare Steigerung an selbiger erfahren?
Ich habe es tatsächlich geliehen. Kommt man ja gebraucht für nicht deutlich unter 1800 € ran. Und es ist vergleichbar mit dem o.e. 18-105, was bekanntlich neu 500 € kostet. Bloß, dass es, umgerechnet auf KB, einen kleineren Telebereich hat. Ich denke, wenn ich einen 70er-Jahre-Zoom brauche, werde ich lieber mit der verminderten Auflösung leben.

Space


Antwort von rush:

Axel hat geschrieben:
rush hat geschrieben:
Viele warten ja noch immer auf das hoffentlich kommende 70-200er 2.8. von Sigma in der DG DN Ausführung.
Warten die darauf wie auf das legendäre Einhorn? Oder gibt es einen Industrie-Enthüller mit fundierten Spekulationen? Da würde ich gerne mitmunkeln.
Es würde mich schon stark wundern wenn sie dem 24-70 DG DN keinen Kompanion an die Seite stellen würden.

Das Glas wurde mehrfach für Herbst/Winter 2020 vermutet und angeblich aufgrund AF Problemen "verschoben". Ob da was dran ist oder auch nicht - Sigma wird in meinen Augen mit hoher Wahrscheinlichkeit ein entsprechendes Tele für Sony E bringen, die Frage ist nur wann.
Tamron hat es ja auch getan...

Aktuell geistert ein Sigma 28-70er Rumor durchs Netz - vllt sind das aber auch Fehlinformation und es wird das entsprechende Tele-Zoom... Denn Sigma ist mit dem 24-70 DG DN ja eigentlich bestens aufgestellt.

Space


Antwort von Funless:

Axel hat geschrieben:
Funless hat geschrieben:
Also wenn ich kurz meinen Senf zum MB Air M1 geben darf (ohne diesen Thread jetzt kapern zu wollen), ich habe meins nun seit knapp zwei Wochen ...
7 oder 8 Kerne? 8 GB oder 16 GB Ram?
8/8’er 16GB RAM 1TB SSD, hab mir letzte Woche noch dazu eine 1TB T7 bei Amazon geholt, da sie da gerade für 121,-€ im Angebot war. Somit hab ich storage mäßig für die nächsten 2-3 Jahre ausgesorgt.

Space


Antwort von rush:

Da bist du aber sehr optimistisch bei insgesamt "nur" 2TB für einen Zeitraum von 2-3 Jahren finde ich.

Oder betrachtest du die beiden als reine Arbeitslaufwerke die dann zeitnah wieder leergeräumt/archiviert werden?

Space


Antwort von Funless:

Arbeitslaufwerke. Bin kein professioneller Filmer, nur Hobbyfilmer, Original Material behalte ich nach Abschluss meiner Projekte so gut wie gar nicht. Würde ich das beruflich machen, gebe ich dir recht, dann würde ich weitaus mehr benötigen.

Space


Antwort von hexeric:

habt ihr schon mit dem K3M audio adapter den 4-ch 24bit ton versucht?
da kommt "ipcm" raus, ein extremer frankensteincodec, den ich in keiner software zum laufen bekomme.
also video geht aber audio stumm. in 2-ch geht es ohne probleme.
p.s. der adapter sendet digital über den blitzschuh 4 tracks (2 XLR und 2 klinke)

Space


Antwort von groover:

....müsst ich mir mal anschauen. ich verwende den K3M bisher nur als 2 Kanal an der A7Siii.
Sollte aber eigentlich auch als 4Kanal funktionieren.
LG Ali

Space


Antwort von r.p.television:

hexeric hat geschrieben:
habt ihr schon mit dem K3M audio adapter den 4-ch 24bit ton versucht?
da kommt "ipcm" raus, ein extremer frankensteincodec, den ich in keiner software zum laufen bekomme.
also video geht aber audio stumm. in 2-ch geht es ohne probleme.
p.s. der adapter sendet digital über den blitzschuh 4 tracks (2 XLR und 2 klinke)
In Premiere geht es angeblich.

Space


Antwort von Axel:

Ich meine, in einem Benutzerkommentar zu Gerald Undones Klage über das nicht-konforme 4-Kanal-Audio gelesen zu haben, dass die neueste Version von Premiere es unterstützt. Auch das November-Update von Catalyst-Browse sagt:
"Jetzt Unterstützung für Lesen und Vorschau von XAVC S-Clips mit 48kHz, 24-bit, 4-Kanal-Audio."

Space


Antwort von hexeric:

will premiere vermeiden, geht aber auch nicht mit der 2020 version am mac.
das problem ist im internet bekannt, was sony da baut ist eher grenzgängig :)
h264 kann ja nur stereo. 4-ch sind in einem sehr exotischen format
habe alle meine 7 tools versucht, niemand kommt mit dem ton klar.
FCP, resolve, PP, ME, audacity, ffmpeg, editready, etc...

hat wer noch nen tipp?

Space


Antwort von hexeric:

Axel hat geschrieben:
Ich meine, in einem Benutzerkommentar zu Gerald Undones Klage über das nicht-konforme 4-Kanal-Audio gelesen zu haben, dass die neueste Version von Premiere es unterstützt. Auch das November-Update von Catalyst-Browse sagt:
"Jetzt Unterstützung für Lesen und Vorschau von XAVC S-Clips mit 48kHz, 24-bit, 4-Kanal-Audio."
wandeln wäre halt schön...mein gott...was wurde da wieder gepanscht
ich liebe die s3, aber die formate sind teilweise abenteuerlich :D

Space


Antwort von tvontheradio:

hexeric hat geschrieben:
h264 kann ja nur stereo. 4-ch sind in einem sehr exotischen format
habe alle meine 7 tools versucht, niemand kommt mit dem ton klar.
FCP, resolve, PP, ME, audacity, ffmpeg, editready, etc...

hat wer noch nen tipp?
h264 ist ein video-codec, das kann gar kein audio. an und für sich ist es kein problem ein mp4/mov/mxf zu machen mit mehr als 2 tonspuren und h264 video. es geht ja um den container/audiocodec der hier probleme macht bzw. anscheinend nicht unterstützt wird.

gibts irgendwo entsprechednes footage zum runterladen? und funktioniert wav export im shutterencoder (ffmpeg) und dann in der NLE relinken auch incht?

gerald undone hat als workaround glaub ich gesagt in 16bit gibts das problem nicht. keine gute/saubere dauerlösung aber für situationen wo man sauber aussteuern kann vielleicht erstmal ein ok'er workaround.

Space


Antwort von hexeric:

sony catalyst browser kann es nach prores wandeln mit einwandfreien PCM kanälen
sonst hat, auch ffmpeg, bei mir nicht geklappt. 2-ch 16bit kein thema, aber die 4-ch 24bit sind natürlich geil

Space


Antwort von dosaris:

Axel hat geschrieben:
...
"Jetzt Unterstützung für Lesen und Vorschau von XAVC S-Clips mit 48kHz, 24-bit, 4-Kanal-Audio."
nur mal so interessenhalber:
was fängt man mit 4-Kanal-Audio an?

ist das vl-vr-hl-hr? Ohne center?

oder (sinnvoller?): l-c-r-surround(hinten) (ähnlich ProLogic)?

Space


Antwort von cantsin:

dosaris hat geschrieben:
was fängt man mit 4-Kanal-Audio an?
Naja, ist doch nicht verkehrt, um z.B. mit einem Stereomikrofon Atmo aufzunehmen und gleichzeitig mit 1-2 Lavaliers oder Richtmikrofonen individuelle Sprecher.

Space


Antwort von hexeric:

es ist nicht 4-kanalton sondern 4-channel (tracks)
also 4 unabhängige mics oder 2 stereo spuren
gut für musik, atmo und interviews/sprache

Space


Antwort von Mediamind:

dosaris hat geschrieben:
Axel hat geschrieben:
...
"Jetzt Unterstützung für Lesen und Vorschau von XAVC S-Clips mit 48kHz, 24-bit, 4-Kanal-Audio."
nur mal so interessenhalber:
was fängt man mit 4-Kanal-Audio an?

ist das vl-vr-hl-hr? Ohne center?

oder (sinnvoller?): l-c-r-surround(hinten) (ähnlich ProLogic)?
Ich benötige 2 Kanäle für den Timecodegenerator. 2 weitere für XLR Micros. Würde ich den TC per XLR einspeisen, wäre nur noch ein einzelner XLR übrig. Ich weis nach wie vor nicht, ob das mit dem Sony XLR Adapter überhaupt so wie geplant klappt. Ich hatte den Adapter mit Wintercashback bestellt und gleich wieder abbestellt, nachdem der Liefertermin auf Mitte April verlegt wurde.

Space


Antwort von Mediamind:

Thema Timecode:
Ich nutze für TC eigentlich Tentacles. Die A7SIII hat einen File TC, den man aber nur begrenzt nutzen kann. Abgesehen von Recrun und Freerun, kann man das ggf. anders triggern?

Space


Antwort von rush:

Nutzt jemand von Euch die Kamera hin und wieder auch zum fotografieren?
Mich würden mal RAW (*.arw) Files aus der Kamera interessieren, am besten unkomprimierte RAWs.
Habe bisher im Netz scheinbar nur komprimierte (jeweils um 13MB) RAW-Files entdeckt - mit denen mag mein RAW-Entwickler aktuell aber noch nicht zusammenarbeiten... die "unkomprimierten RAW's" sollen aber angeblich bereits unterstützt werden - daher würden mich diese besonders interessieren... diese müssten doch auch etwas mehr als 13MB haben?

Wenn jemand 1-2 Fotos bereitstellen könnte oder einen Link zu vorhandenen, unkomprimierten A7S III ARW Dateien hat - gern her damit!

Space


Antwort von ONV:

rush hat geschrieben:
Wenn jemand 1-2 Fotos bereitstellen könnte oder einen Link zu vorhandenen, unkomprimierten A7S III ARW Dateien hat - gern her damit!
here you go:
https://1drv.ms/u/s!AoklohV2kGuihZJuMeR ... A?e=aUB6aa

Nichts spannendes, aber unkomprimiert.
Rund 25 MB das Stück, glaube ich...

Space


Antwort von rush:

Mega - besten Dank dafür!
Damit kommt mein RAW-Entwickler tatsächlich nativ klar - gut zu wissen... und auch das Profil für das 28-75er Tamron hat er in der Kombi bereits am Start.

Top - das hilft definitiv weiter - thx :-)

Space


Antwort von rush:

Nochmal eine Frage zu dieser Gyro-Stabi Geschichte...

Das ganze funzt also nur wenn Stabi auf AUS oder ACTIVE steht?
Und woran erkennt man in Vorfeld mit welchen Objektiven das klappt?

Sigma hat ja die neueren DG DNs die scheinbar spielen? Wie sieht es mit den etwas älteren, ebenfalls mit Sony E Mount ausgestatteten Festbrennweiten aus die noch nicht aus der DG DN Linie kommen?
Tamron? 28-75er?
Samyang?
Finde ich irgendwie schwierig woran man das fest macht - unabhängig der Frage ob man es am Ende nutzt...

Space


Antwort von ONV:

rush hat geschrieben:
Nochmal eine Frage zu dieser Gyro-Stabi Geschichte...

Das ganze funzt also nur wenn Stabi auf AUS oder ACTIVE steht?
Und woran erkennt man in Vorfeld mit welchen Objektiven das klappt?

Sigma hat ja die neueren DG DNs die scheinbar spielen? Wie sieht es mit den etwas älteren, ebenfalls mit Sony E Mount ausgestatteten Festbrennweiten aus die noch nicht aus der DG DN Linie kommen?
Tamron? 28-75er?
Samyang?
Finde ich irgendwie schwierig woran man das fest macht - unabhängig der Frage ob man es am Ende nutzt...
Das Tamron 28-75 funktioniert problemlos mit der gyroskopischen Stabilisierung. Ich kann allerdings Clips mit allen Steadyshot Einstellungen in Catalyst Browse stabilisieren, egal ob AUS, STANDARD oder ACTIVE.

Ansonsten - gibt's von Sony keine offizielle Kompatibilitätsliste? Ich hätte jetzt mal vermutet, dass der Gyro-Support für alle E-Mount Objektive gilt die über eine elektronische Übertragung von Objektivdaten verfügen. Ich kann selbst mit meinem MC-11 und einem Sigma EF Art 50mm die Gyro-Stabilisierung nutzen. Lediglich mein rein-mechanischer billiger Nikon-Adapter erfordert für die IBIS eine manuelle Eingabe der Brennweite und gibt mir später keine Möglichkeit in Catalyst Gyro-Daten zu verwenden.

Also ich vermute(!) mal, dass alle Objektive die Autofokus an dem Body unterstützen auch per Gyro stabilisiert werden können. Aber ist nur eine Vermutung!

Space


Antwort von rush:

Das ist interessant. Mir erschien das eben auch etwas unklar beim durchblättern der letzten Seiten hier die sich auf Gyro-Stabi bezogen.

In ersten Artikeln oder auch Videos hieß es immer das IBIS auf jedenfall deaktiviert werden muss (etwa von Brandon Li).
Dann laß ich hier im Forum das es sowohl bei OFF und ACTIVE - nicht aber im normalen ON Modus des Stabis funzt.

Und die Verwirrung bezüglich kompatibler Gläser erleichtert das ganze nicht eben weil auch da keine klare Aussage zu finden ist (oder ich sie nicht gefunden habe).

Danke daher auch für Deinen Input...
Vllt. hat sich das mit Updates der Kamera & / Oder von Catalyst Browse ja auch verbessert? Es wäre ja wirklich sinnvoll wenn Gyro-Daten faktisch immer mit aufgezeichnet werden - unabhängig vom Stabi-Mode.. die Kamera bewegt sich ja nun einmal mit jedem Objektiv - entscheidend und ausschlaggebend dürfte daher primär die Brennweite neben den Bewegungsdaten für die Gyro-Stabilisierung sein und die müsste ja in der Tat bei allen nativen E-Mount Gläsern elektronischer Bauart sowieso durchgereicht werden.

Space


Antwort von Axel:

Welches Objektiv man drauf hat ist wohl weniger das Problem, wenn einem klar ist, dass Gyro kein zusätzliches Stabi-Backup ist, sondern geplant sein muss wegen der leider unabdingbaren Eliminierung der Bewegungsunschärfe durch sehr kurze Verschlusszeiten. Auch Motion Blur kann man nachträglich wieder hinzurechnen, ich denke aber, dass wir besser fahren, ein möglich wenig prozessiertes Bild anzustreben. Wie Mediamind ja gezeigt hat, sind statische oder beinahe statische Aufnahmen durch Active Steady Shot schon abgedeckt und lassen sich (z. B. bei Tele) noch zusätzlich in der Post stabilisieren. Gyro ist etwas für Action oder wahrscheinlich für Hyperlapse (was ich selbst allerdings nie probiert habe, mit oder ohne Gyros).

Space


Antwort von Mediamind:

Als die A7SIII heraus kam, konnte die damalige Version con Catalyst Browse scheinbar nur mit Steadyshot auf Off umgehen. Auf meinem Smartphone in der Imaging App unter Neuigkeiten hatte ich dann im Dezember den Updatehinweis, dass nun auch Clips mit Steadyshot auf On stabilisierbar sind. Das wurde an keine anderen Stelle dokumentiert, auch ncht bei den Versionhinwesien von CB auf den Sonyseiten. Es gab letztes Jahr definitiv Hinweise, dass einige Fremdoptiken nicht unterstützt werden. Ob das nun mit der aktuellen Version von CB immer noch so ist, kann ich nicht sagen. Meine Sigma DGDN laufen jedenfalls ohne Probleme.
Das Update ist insofern interessant, als das man die Entscheidung für eine Stabilisierung über CB nun nicht mehr bei der Aufnahme treffen muss. Ich habe ein wenig mit der Gyrostabilisierung experimentiert. Richtig fette Ruckler benötigen tatsächlich kurze Verschlusszeiten. Ansonsten gibt es verschmierte Augenblicke, die dann sehr störend wahrgenommen werden. Der aufgenommene Ruckler ist auf den Frame betrachtet natürlich ein unscharfes verwischtes Bild, da kann auch Gyrostabilsierung dies nur verschmiert darstellen. Bei allen normalen Situationen, bei denen man ein leichtes Zittern kompensieren muss, geht CB ohne Pro auch mit 1/50 ohne Probleme. Da geht allerdings, wie dargestellt, die Stabi in der Post auch hervorragend.

Space


Antwort von shellbeach:

Bei der R6 habe ich festgestellt, dass die Geräusche vom Nachführautofokus (vielleicht war es auch der Stabi) auf die Tonspur vom internen Mikro aufgezeichnet werden. Konnte das jemand bei der A7S III auch feststellen?

Space


Antwort von ruessel:

auf die Tonspur vom internen Mikro aufgezeichnet Ist doch ganz normal. Hatte ich schon in den 80er Jahren bei VHS Kameras. ;-)

Space


Antwort von Jott:

r.p.television hat geschrieben:
Das ist auch bei mir so und hat schlicht mit der rekirdverdächtig schnellen Auslesezeit des Sensors zu tun. Ein weiterer grosser Vorteil der A7SIII.
Genau. Kaum Rolling Shutter, und das Ergebnis ist prima. Ist ja auch logisch, dann kann‘s nicht wobbeln.

In fcp x kann man obendrein zwischen „festnageln“ (Stativmodus) und verschiedenen Modi zum Belassen natürlicher Bewegung wählen.

Aber auch da gibt‘s keine Wunder, eine Kamera führen muss man natürlich trotzdem können.

Space


Antwort von rush:

shellbeach hat geschrieben:
Bei der R6 habe ich festgestellt, dass die Geräusche vom Nachführautofokus (vielleicht war es auch der Stabi) auf die Tonspur vom internen Mikro aufgezeichnet werden. Konnte das jemand bei der A7S III auch feststellen?
Das dürfte in erster Linie vom verwendeten Objektiv abhängig sein und wie laut dessen AF Motoren rattern - da gibt es teils deutliche Unterschiede je nach Hersteller...

Ich hatte kürzlich (Mal wieder testweise) ein 35er Samyang an meiner betagten A7rII - da hat man den AF-Motor des Objektives schon mit den Ohren akustisch wahrgenommen... die neueren Samyangs sind da besser geworden - aber im Vergleich zum adäquaten Sony 35er noch immer eine Nuance hörbarer.

Space


Antwort von shellbeach:

ruessel hat geschrieben:
auf die Tonspur vom internen Mikro aufgezeichnet Ist doch ganz normal. Hatte ich schon in den 80er Jahren bei VHS Kameras. ;-)
ok, ich dachte das hätte man heutzutage besser zu entkoppeln geschafft. Finde ich jedenfalls doof, wenn man nicht gleich zum externen Mikro greifen will.

Space


Antwort von shellbeach:

@rush
bei meinem Versuch war es R6 und RF 24-70 2,8.
Hätte das so nicht gedacht.

Denke es wird dann bei Sony nicht anders sein.

Hilft dann im worst case nur MF :-)

Space


Antwort von rush:

Da hilft ein externes Mikro... Selbst kleine Aufsteck-Mikros sollten mit etwas Richtwirkung die Geräusche fast komplett ausblenden können .. ansonsten gehört das Mikro eh immer da hin wo der Ton herkommt und nicht auf die Kamera. Denn neben den Geräuschen des Fokusmotors/Stabi im Objektiv wird auch jedes Gefummel an der Kamera mit aufgezeichnet was man ja ungern drauf haben möchte.

Space


Antwort von Mediamind:

Wäre mir bisher nicht aufgefallen. Ich nutze allerdings das interne Micro nie für Tonaufzeichnungen. Für Sprache habe ich entweder ein Instamic, oder Track-E am Start. Ansonsten ein Rode Videomic Pro Plus. Von daher wäre es mir eigentlich auch egal ob da etwas zu hören ist oder nicht.

Space


Antwort von Axel:

Es gibt einen neuen smallrig-Cage für die Sony A7Siii:

Kostet aktuell bei smallrig Deutschland 54,55 € (inklusive HDMI-Kabelklemme), das erste Modell, was ich habe, kostet heute 39,78 €. David vertut sich, wenn er sagt, der neue Cage sei leichter, er ist mit 255 g sogar 35 g schwerer als der ältere.

Ich habe Reviews von Tilta, 8Sinn, Zacuto und auch vom smallrig-Halfcage gesehen und fand bis jetzt den einfachsten und besten Cage den zugleich günstigsten, den ich habe.

Die im Video gezeigte, noch elegantere HDMI-Lösung? > braucht nicht, wer den Cage vor allem für ein schwereres Hand-Rig verwendet, mit EVF statt Ninja V oder Desview R6. > braucht nicht, wer ein für allemal kapiert hat, dass Raw gegenüber SLog3 10-bit genau so viele Vorteile wie Nachteile hat (für mich überwiegen die Nachteile, wobei die Kosten nicht berücksichtigt sind!).

Das im Video gezeigte Modul zur Verwendung eines größeren Akkus mit Dummy-Batterie? Der original Akku hält knapp 80 Minuten, und das ist mit voller Sucherqualität (größter Verbraucher) und Sonnenschein-Modus des Displays ständig an (zweitgrößter Verbraucher). Da führt das Zugucken beim Sinken der Akkuanzeige nicht zu unangenehmer Anspannung.

Was meint ihr?

Space


Antwort von Mediamind:

Wenn klobig, dann richtig :-)
Ich würde auf einen Cage mit der Option für den Batteriegriff setzen. Für die Gh5 habe ich einen, der sowohl den Batteriegriff, als auch das XLR-Modul mit aufnimmt.
Das hätte auch den Vorteil, dass Hitzeprobleme gemindert werden, die Batterie heizt bei Gebrauch das Gehäuse zusätzlich, mit Griff minimiert sich das Problem.

Space


Antwort von groover:

Stimme ich dir zu.
ich hätte auch gerne das größere Cage für Kamera inkl. Batteriegriff.
Lässt sich da dann eigentlich das Display noch aufklappen, wenn ein Griff auf der linken Seite montiert ist?
LG Ali

Space


Antwort von Mediamind:

Von der Erfahrung mit meiner Gh5 aus betrachtet kann ich nur sagen, dass das ausgeklappte Display durchaus im Weg ist. Ich verwende allerdings sowieso lieber den EVF, so dass das kaum eine Rolle spielt.

Space


Antwort von groover:

Klar, dann gehts natürlich.
So schaut das bei mir aus.
Ich hab mir einen Smallrig Griff auf eine Grundplatte mittels Klammer montiert und kann so die Kamera besser halten.
Ein „richtiges“ Cage bräuchte ich somit nicht mehr.
LG Ali

Space


Antwort von dnalor:

Ist der neue Smallrig Cage schon lieferbar? Ich hab ihn im Februar für die A1 (ist der gleiche) vorbestellt, soll laut Smallrig Bestellbestätigung erst Mitte April lieferbar sein.

Space


Antwort von Mediamind:

Heute kam von Peak Design der Capture Clip 3 für meine A7SIII. Dabei ist mir aufgefallen, dass das Gehäuse unterhalb des Backsidemonitors bis aufs Metall blank geworden ist. Mit ist vollkommen unklar, wie das passieren konnte. Ich habe an der Stelle keine besondere Beanspruchung oder sonstig verschleißträchtige Aktivitäten veranstaltet. Axel, wie sieht das bei Dir an dieser Stelle aus? IMG_1095.jpg

Space


Antwort von Axel:

Mediamind hat geschrieben:
Heute kam von Peak Design der Capture Clip 3 für meine A7SIII. Dabei ist mir aufgefallen, dass das Gehäuse unterhalb des Backsidemonitors bis aufs Metall blank geworden ist. Mit ist vollkommen unklar, wie das passieren konnte. Ich habe an der Stelle keine besondere Beanspruchung oder sonstig verschleißträchtige Aktivitäten veranstaltet. Axel, wie sieht das bei Dir an dieser Stelle aus?
Das sieht aus wie Abrieb. Vielleicht hattest du vorher irgendein Schnellwechselsystem in Gebrauch, das seitlich aufgeschoben wurde?. Ich habe die Weebill S - Arca-Swiss-Platte immer unter dem Cage, und die Stelle, an der ich sie aufsetze (Metall auf Metall) ist blank. Noch deutlicher am Coldshoe des Cages, wo das Røde Videomic draufgeschoben wird:

zum Bild


Übrigens war meine obige Angabe zum neuen Cage irreführend durch Fehlangaben von Smallrig. Das Cage ist ungefähr 30 g leichter als mein jetziges, bei Smallrig Deutschland "in 5 Wochen" verfügbar. Aus Shenzen muss man länger warten, dafür ist's billiger.

zum Bild


zum Bild

Ich warte, bis das Chaos abgeebbt ist und man das Teil am nächsten Tag für 50 Euro in Händen hält, wie sonst üblich.

Space


Antwort von Mediamind:

Es könnte der Ronin RS2 gewesen sein. Eigentlich schabbelt da nichts. Es sieht aber wirklich so aus, als ob das die Ursache sein könnte.

Space


Antwort von Mediamind:

Ich habe noch einmal meinen Umgang mit der Kamera durchdacht. Ich habe sie regelmäßig an einem Gurt. draußen trage ich eine Funktionsjacke, die Reißverschlüsse sind genau auf der Höhe der Kamera. Unachtsam von mir :-(

Space


Antwort von Axel:

Würde ich mir nicht allzu viele Gedanken drüber machen. So eine Kamera sieht doch erst richtig gut aus, wenn sie abgegriffen ist. Und mal ehrlich: man behält sie, also pfeif auf Wiederverkaufswert.

Gerade gesehen:

... und eben probiert. 12 MB "x.ARW" wird zu 75MB "x.dng". Total verblüffend, wie weit man da einzoomen kann. Aber nur bei sauberen Bildern. Die A7Siii rauscht doof, auch in Raw, und hochgesampeltes Rauschen sieht nach Hafergrütze aus, AI oder nicht. Ist aber alles nicht so wichtig für mich. Bin ein Smartphone-Knippser ...

Space


Antwort von Mediamind:

Für diejenigen, die eine A7SIII neu erworben haben und sich mit den besten Einstellungen herumprügeln sei mein bärtiger Freund empfohlen. Die hier dargestellten Einstellungen halte ich aus eigener Erfahrung für recht gut gewählt. In 2 Teilen beschäftigt er sich mit den Menüs und geeigneten Einstellungen für einen effizienten Run and Gun Einsatz der A7SIII:
https://www.youtube.com/watch?v=fXW4Zj9Jygg

und

https://www.youtube.com/watch?v=gY8px6qUxOE

Space


Antwort von cantsin:

Das ist schon absurd, dass die Konfiguration von Hybridkameras zu einer eigenen Wissenschaft und einem YouTuber-Wirtschaftszweig ausartet. Wenn man nach Gründen sucht, warum sich die Kameraindustrie ihr eigenes Grab schaufelt, findet man sie hier. (Frei nach dem Motto: Was ist eine Digitalkamera? Ein Gerät mit tausend Funktionen und hundert verschachtelten Menüs, dessen Bilder man nicht direkt im Internet teilen kann.)

Warum kommen Kamerahersteller nicht auf die Idee, die Konfigurationsmenüs parallel auch per Mobiltelefon-Apps oder Mac-/Windows-Programm anzubieten, wo man sie komfortabler (und z.B. mit Textsuche) erledigen könnte? Sie müssten das ja nicht mal selbst programmieren, sondern nur ein API anbieten. Dann könnten Drittanbieter sich auch bessere Menügliederungen/-interfaces einfallen lassen.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Für diejenigen, die eine A7SIII neu erworben haben und sich mit den besten Einstellungen herumprügeln sei mein bärtiger Freund empfohlen. Die hier dargestellten Einstellungen halte ich aus eigener Erfahrung für recht gut gewählt.
Die größte Geringschätzung zwischen Angehörigen unserer Spezies findet sich gemeinhin unter Hochzeitsvideografen oder Hochzeitsfotografen. Aber ich gucke mir Matts Sachen gerne an. Ich stimme nur nicht mit ihm überein, wenn er sagt:
"Matt bei Teil 1 ab 8'27'' "]Du willst unbedingt sicherstellen, dass dein Belichtungsmodus auf "Manuelle Belichtung" steht. Wir möchten mit dieser Kamera keine "Auto" - Funktionen benutzen. Du willst immer alles manuell einstellen, damit dein Bild immer so gut aussieht wie möglich. Ich weiß genau, was er meint, aber er ist inkonsequent, indem er z.B. dem manuellen Fokus kaum Erwähnung schenkt.

Ausgehend von meiner Einstellung dazu, dass nämlich die Beherrschung der Parameter der automatischen Schärfe zum besten Bild führt, habe ich - aktuell - 5 Tasten plus Touchscreen damit belegt.

1. AF-MF-Selector Toggle (an den Objektiven, aber die Taste, nicht der Schieberegler)
2. Switch Focus Area (Movie-Button, es gibt nur "Wide", "Center-Fix" und "Expanded Spot", der Rest ist abgewählt).
3. Face/Eye Priority Select (Custom Button 2), mit der Begründung, die Matt gibt.
4. AF Transition Speed (AF ON), das macht ästhetisch einen Riesenunterschied.
5. AF Subj. Shift Sensitivity (Custom Button 3), bei "Wide" und nicht (durch Gesicht/Augen) perfekt erkannten / in Bewegung befindlichen Personen der Retter (auch in Kombi mit Touch-Tracking).

Ich weiß, wie die verschiedenen Funktionen ineinandergreifen, und das schlägt alles rein Manuelle, feinmotorisch Mögliche. Diese These ist unter A7Siii-Nutzern unstrittig. Aber das gilt mE auch für die Belichtung. Wozu habe ich eine Belichtungsmessung, die ich nach Bereichen programmieren kann, nach Highlights, Durchschnitt, Fokusbereich oder Haut? Wozu Belichtungskorrektur und eine Anzeige dafür?

Mit bewusst gesteuerter Automatik (flexible Exp. Mode, Menu-Seite 10/54) und
1. AV Auto/Manual Switch (AEL-Taste, kann im Sinne Auto-Sperre verwendet werden), erneutes Betätigen der Taste entspricht "M".
2. TV Auto/Manual Switch (Left Button), erneutes Betätigen der Taste entspricht "M".
... bekomme ich zu 100% nutzbare Aufnahmen ohne Rauschen oder Überbelichtung. Und ohne Helligkeitsschwankungen. Und ohne Farbtemperaturschwanken (AWB Lock Toggle auf Custom Button 4), und ja, ich nehme das sogar mit einem WB/Graukarten-Schild ab. Eine Run&Gun-Kamera, mit der man zuerst in ein Untermenu von White Balance muss?

Ich mache das übrigens trotzdem nach Augenmaß. Ich sehe bei fixem Shutter und vorübergehender Blendenautomatik, was die Kamera machen möchte. Dann korrigiere ich das von Hand, wenn mir der Innenraum vorm Fenster zu dunkel ist oder ich umgekehrt die Wolkenzeichnung zugunsten der Gesichtszeichnung opfern würde. Die Reserven vor allem nach oben mit dieser Kamera sind große Klasse. Aber ich starte nicht bei Null, sondern mit einem Vorschlag der Automatik.

Wer sich Potato Jets Video zur großen Arri anschaut, muss erkennen, dass die Kamera zwar voll manuell ist, aber dass Belichtung und Schärfe elektronisch gemessen und dann manuell programmiert werden. Das ist voll vergleichbar mit einem bewussten Einsatz von Automatiken bei der Sony. Die einzigen Automatiken bei dieser Kamera, denen ich misstraue, sind "AUTO" und Auto ISO.
[quote=cantsin hat geschrieben:

Das ist schon absurd, dass die Konfiguration von Hybridkameras zu einer eigenen Wissenschaft und einem YouTuber-Wirtschaftszweig ausartet. Wenn man nach Gründen sucht, warum sich die Kameraindustrie ihr eigenes Grab schaufelt, findet man sie hier. (Frei nach dem Motto: Was ist eine Digitalkamera? Ein Gerät mit tausend Funktionen und hundert verschachtelten Menüs, dessen Bilder man nicht direkt im Internet teilen kann.)

Warum kommen Kamerahersteller nicht auf die Idee, die Konfigurationsmenüs parallel auch per Mobiltelefon-Apps oder Mac-/Windows-Programm anzubieten, wo man sie komfortabler (und z.B. mit Textsuche) erledigen könnte? Sie müssten das ja nicht mal selbst programmieren, sondern nur ein API anbieten. Dann könnten Drittanbieter sich auch bessere Menügliederungen/-interfaces einfallen lassen. Wenn es das selbststeuernde Applecar gäbe, in das man sich setzt, um bei der Zweckfahrt zum profanen Zielort ungestört daddeln zu können, wäre es ein Ladenhüter. Wo bliebe denn dann die "Freude am Fahren"?

Space


Antwort von Mediamind:

Danke schon einmal für Deinen Beitrag. Die Belichtungsautomatiken habe ich tatsächlich nie in Erwägung gezogen. Das rührt aus der Erfahrung, die ich mit anderen Kameras in der Vergangenheit gemacht habe. Ich werde das aufgrund Deiner Schilderung auch einfach mal testen, wie sich die Kamera schlägt.
Ich habe aber noch ein Verständnisproblem zu Deinem Workflow in den Punkten 4 und 5.
Passt Du die Paramter zwischen den Takes an und nach welchen Kriterien? Wie setzt Du das konkret ein? Ich kann mir das noch nicht so richtig vorstellen.
Die F-Buttons wären mir zu schade für solche Einstellungen. Das habe ich lieber Zebras an oder aus, Peaking an oder aus... eben mehr einfache an oder aus Ennscheidungen. EInstellzeugs mit variablen Einstellwerten habe ich lieber im "My Menue" oder im FN-Menue.

Ergänzung: TV kann ich mir beim Auszug aus der Kirche (ich gehe vor der Prozession rückwärts aus der Kirche) gut vorstellen, drinnen düster und draußen Juli Sonne....

Space


Antwort von Axel:

Lass uns das weiter diskutieren. Ich schreib morgen Nachmittag noch was dazu, dann auch mit konkreten Einsatzbeispielen.

Space


Antwort von Mediamind:

Welch ein Geschwurbel in der Anleitung zur A7SIII und ein fast schon perfider Plan, den User zu verwirren. Damit man den Wechsel zwischen Blenden und oder Zeitautomatik auf einer F-Tast registrieren kann, muss man BelichtungRglTyp auf FlexBelichtungM stellen. Ich bin im manuellen Modus und muss FlexBelichtungM anhaken? Das kann sich doch niemand wirklich ausdenken. Ansonsten bekommt man bei der Belegung einen Fehlerhinweis, der mal gar nichts sagt. Nun habe ich es aber und habe den Wechsel zwischen manuell und Blendenautomatik auf die AEL Taste gelegt. Das ist ein echter Gamechanger für Run and Gun, speziell im Weddingbereich. Gerade, wenn es richtig schnell gehen muss ist das ein Segen. Die Automatik trifft tatsächlich die richtige Belichtung auf den Punkt und das wirkt nicht so künstlich, wie es bei Automatiken sonst kenne. Gerade noch im Schatten aufgenommen und dann muss man direkt in den Sonnenschein wechseln? Kein Problem, AEL Taste drücken, der Shutter springt auf z.B. 1/1000 und man hat den Take. In dem Moment ist die 180 Grad Regel zwar zum Teufel, man hat aber einen korrekt belichteten Clip. Dann kann man immer wenn die Szene es erlaubt noch mit Iso, Blende, ND nachsteuern. Cool dabei: die AEL Taste erneut drücken und der Shutter bleibt, damit es hier nicht zu den ungewünschten dynamischen Helligkeitsschwankungen kommt. Das ist für mich künftig der "Notbutton", wenn es blitzschnell gehen muss und man ansonsten die Aufnahme nicht hinbekommt, sch*** auf 180 Grad in dem Moment.
@Axel, Du hast Recht, das hätte man in dem ansonsten guten video von Matt aufnehmen können. Und Danke für den Tipp, er ist für meine Zwecke eine echte Hilfe. Matt ist aus fast schon religiöser Überzeugung der manuelle Typ. Da halte ich es eher wie Brandon Lee und bleibe pragmatisch in Bezug auf Shuttereinstellungen.
Am Ende verwendet man die Kameras künftig im vollautomatischen Modus? Wohl kaum, die Automatiken der A7SIII können aber tatsächlich unterstützen, wenn es sehr schnell gehen muss. Mit schnell komme ich noch klar, bei sehr schnell bin ich raus :-)

Space


Antwort von Jott:

Wenn man weiß, wie sich Automatiken verhalten, kann man für Schnell-Schnell durchaus mal die eine oder andere Religion über Bord werfen. Das Resultat zählt.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Ich habe aber noch ein Verständnisproblem zu Deinem Workflow in den Punkten 4 und 5.
Passt Du die Paramter zwischen den Takes an und nach welchen Kriterien?
(Bezog sich auf Funktionstasten, mit denen ich die Schärfeverlagerungsgeschwindigkeit und die Abweichungstoleranz für die Fokuserfassung belegt habe).

Deine Nachfrage ist bereits ein kraftvolles Gegenargument. Ich schrieb ja, dass das aktuell meine Tasten sind, aber ich werde das wohl wieder ändern. Ein Nachführen des Fokus bei bewegtem Motiv bzw. bewegter Kamera sollte natürlich immer verzögerungsfrei sein. Ein Verlagern des Fokus von einem Motiv zum anderen in der laufenden Aufnahme sieht dagegen langsamer gewollter und damit besser aus. Ich mache gerade jeden Tag viele solcher Aufnahmen. Bei genauerer Betrachtung sind das aber alles "Tests". Ich erinnere mich, dass ich einmal in der Vorhalle zum Standesamt eine Fokustauchfahrt über ein Tablett mit Sektgläsern auf die Trauzeugen gemacht habe. Das war noch DV, mit der VX2000. Ich musste dazu rasch ein paar Meter nach hinten sprinten, um am äußersten Ende des Zoombereichs genügend sDoF zu haben. Ansonsten sind solche Aufnahmen mMn "Mätzchen", womit ich filmsprachliche Mittel meine, die nur einen Selbstzweck haben und deshalb unterschwellig den Betrachter emotional aus der Situation reißen.

Somit wäre die Taste für die Fokusgeschwindigkeit wieder frei.

Für die Drosselung der Empfindlichkeit für Motivwechsel gilt dasselbe. Ob in Wide, Center Fix oder Focus Tracking: wenn der Baum durch's Bild geht, ein Vordergrund-Objekt das Motiv verdeckt, kann die Schärfe verloren gehen. So kritisiert von Brandon Li in seiner Review zur A7Siii. Zur Rettung der Aufnahme ist wohl "Focus Hold" besser geeignet. Wenn der Vordergrund-Störer weg ist, zeigt einem bei Personen dieser Zappelrahmen, ob das Motiv erfasst ist, dann kann man Focus Hold nicht mehr halten (wäre gut auf dem Movie Button), und nichts sucht oder pumpt.

Man lebt, man lernt.
Mediamind hat geschrieben:
Nun habe ich es aber und habe den Wechsel zwischen manuell und Blendenautomatik auf die AEL Taste gelegt. Das ist ein echter Gamechanger für Run and Gun, speziell im Weddingbereich.
Das schnelle Umschalten-Können zwischen Av, Tv und Manuell erlaubt es mir halt, selbst zu entscheiden, was gerade Vorrang hat. Ich mach das auch sehr oft, dass ich nicht die Auto-Blende lasse, sondern nach oben oder unten korrigiere.
Mediamind hat geschrieben:
Die F-Buttons wären mir zu schade für solche Einstellungen. Das habe ich lieber Zebras an oder aus, Peaking an oder aus...
Lass uns zum Thema Zebras mal ein Fass aufmachen. Oder sagen wir mal so, ich mache es auf. Ich bin ein Run&Gun-Shooter. Man ist fast automatisch einer, wenn man Hochzeiten aufnimmt (dieses Jahr steht nur noch Ende Juni eine von Freunden an, danach will ich das nicht mehr). Ich wäre aber auch einer, bzw. werde hoffentlich einer sein, wenn ich szenisch arbeiten werde. Ich hab öfter Beleuchtung bei Musikvideos gemacht, und der Kameramann war "religiös" (Jott), was Belichtung, Weißabgleich, Schärfe und Kadrage nach Zahlen betraf. Er ist ein Stativist, und er hielt alles auf, weil er ewig brauchte, um seine Aufnahme einzurichten. Er findet slashCAM doof, und deshalb weiß ich, dass er nicht mitliest.

Möglicherweise bin ich das andere Extrem, jemand, der gerne improvisiert und Fünfe gerade sein lässt. Im Grunde möchte ich möglichst wenig technischen Kappes vor Augen flimmern haben, wenn ich auf etwas gucke. Ich möchte in der Lage sein, das Bild intuitiv zu beurteilen und intuitiv zu beeinflussen.

Ich nutzte immer Zebra als Überbelichtungs-Warnung. Bei der A7Siii ist das zumindest in SLog3 nicht besonders zuverlässig oder effektiv. D.h.: obwohl ich nach ETTR-Prinzip mit 95% Zebras manuell belichtete, bekam ich gelegentlich Aufnahmen, in denen der Himmel clippte oder die unterbelichtet waren. Ich weiß, das klingt falsch und als ob ich ein Idiot wäre.

Ich kann mittlerweile das gammakorrigierte EVF-Bild zuverlässiger nach Augenmaß belichten. Das heißt, ich weiß, wie es aussieht, wenn etwas clippt oder absäuft. Die Zebras versauen mir nur den Bildgenuss. Ich starte mit Blendenautomatik. Ich stoppe die Automatik, dann drehe ich hoch oder runter. Niemals lasse ich die Blendenautomatik bei z.B. einem Schwenk nachregeln (weil das sprunghaft passiert und sich zusätzlich die Schärfentiefe ändert). Ich nehme dann einen mittleren Blendenwert, um den Shutter mit Tv möglichst nahe an 1/50 zu lassen.

Space


Antwort von Mediamind:

Da haben wir aber eine Menge Ähnlichkeiten :-)
Mit der A7SIII mache ich eine Menge mehr und das auch in besserer Qualität, ich daddle nicht in den Menüs herum oder versuche dem Focus hinterher zu laufen. Stative sind für mich eher lästig und nur für lange Takes, ansonsten vermeide ich sie. Was ich allerdings noch einmal testen werde, ist ein Monopod mit dem Ronin in Kombination. Ich kann mir vorstellen, dass beim Brautshooting hieraus ein neuer Workflow entstehen kann. Brandon L. hat das ja ganz gut drauf, mal schauen...
Hochzeiten sind schon anstrengend. Vor dem Hintergrund arbeite ich jetzt auch nicht mehr alleine. Sollte es je wieder Hochzeiten geben, freue ich mich auf hieraus resultierenden Möglichkeiten. Ich erwarte eine deutliche Steigerung der Qualität durch eine 2. Shooterin. Schade, dass Du das aufgibst, ich finde den Bereich nach wie vor reizvoll. Interviews und Co sind dagegen doch wie Ferien auf der Farm :-)
Die Zebras machen mich in Slog3 auch nicht glücklich. Ich habe sie ja deutlich nach unten korrigiert. Das Zebraverhalten passt definitiv nicht zum realen Clippen. Deswegen gehe ich das aktuell auch mit geringerer Empfindlichkeit an. Damit das Bild nicht verfälsch wird, knipse ich die Zebras auch mit Funktionstaste an und aus. Du hast aber Recht, im Sucher entwickelt man ein gutes Gefühl für die Belichtung. Trotzdem wünsche ich mir einen Waveformmonitor.
Nochmals zur Zeitautomatik: Ich habe heute viel mit dem 85er gespielt. Da man einen recht kleinen Ausschnitt hat, sieht man die Änderungen der Helligkeiten beim Schwenken von hellen zu dunklen Passagen (und andersherum) kaum. Das Bild hat eine, wie soll ich es sagen, konstante Helligkeit. Das kannte ich bisher nur so, dass die Automatik spürbar den Bildeindruck veränderte durch hoch- und runterdrehen der Empfindlichkeit. Das ist in der Kombination nicht der Fall. Morgen habe ich einen Timeslot im Folkwang Museum gebucht und werde in der regulären Ausstellung ein wenig mit dem Sigma Art 24-70 die Blendenautomatik testen.
Da ich heute nicht von der schnellen (Begreif) Truppe bin: Jott ist "unser" Jott?

Space


Antwort von Axel:

Mediamind hat geschrieben:
Da ich heute nicht von der schnellen (Begreif) Truppe bin: Jott ist "unser" Jott?
Es kann nur einen geben. Du sollst doch keine anderen Jötter neben mir haben!
Jott hat geschrieben:
Wenn man weiß, wie sich Automatiken verhalten, kann man für Schnell-Schnell durchaus mal die eine oder andere Religion über Bord werfen. Das Resultat zählt.


Space


Antwort von rush:

Wie steht ihr eigentlich zu Akkus von Drittherstellern bzw. nutzt ihr welche in der A7sIII?

Ich habe für meine A7rII einige No-Name Akkus und bin damit immer recht gut gefahren - bei einigen haut die Akku-Anzeige nicht unbedingt immer hin aber die Leistung ist bei allen über die 5 Jahre hinweg noch durchaus brauchbar.

Wie handhabt Ihr das? Ausschließlich Original Sony Akkus? Oder gibt es gute Erfahrungen mit Third-Party Zellen die eine möglichst brauchbare/genaue Füllstandanzeige ausgeben und die Leistung auch bringen?

Space


Antwort von groover:

Ich benutze 14 Original Akkus und vier Nachbau.
Merke diesbezüglich keinen Unterschied......
LG Ali

Space


Antwort von Mediamind:

Ich nutze 3 Sony Akkus und 2 von Blumax. Die Blumaxe werden von der A7SIII als Fremdakkus erkannt. Es kommt dann eine Mitteilung, dass der sichere Betrieb nicht gewährleistet werden kann. Das ist dann mit Ok zu bestätigen und dann kann man sie verwenden. Das passiert immer dann, wenn die Akkus neu eingelegt wurden und wiederholt sich bei jedem erneuten Einlegen. Wenn die Meldung bestätigt wurde, erscheint sie dann allerdings nicht mehr bei der weitern Verwendung. Die Kapazität ist soweit ok, ich habe aber die Laufzeit nie gemessen, zumal ich das Blumaxdoppel im Batteriegriff verwende.

Space


Antwort von Axel:

Nur ein zweiter Originalakku. Zum stunden- und aberstundenlangen Testen (Rumspielen) eine Anker-Powerbank über USB-C. Mehr braucht man m. E. nicht.

Space


Antwort von rush:

Interessante Spreizung zwischen 2 und 18 Akkus :-)

Ist das bei allen Fremdakkus beim Einlegen mit der Meldung so?
Wäre ja prinzipiell kein Problem aber wenn sich welche als "Originale" zeigen wäre das natürlich nochmals eleganter - aber kein Ausschlusskriterium.

Einige Fremdakkus werden ja mit 2040mah angegeben, andere wie die Sony-eigenen mit 2280mah - macht in der Praxis wahrscheinlich keinen relevanten Unterschied?

Space


Antwort von Mediamind:

Schwer zu sagen. Das sind immerhin 10% Unterschied. Dazu müsste man standardisierte Ausgangsbedingungen im Vergleich schaffen. Derzeit haben die Temperaturen einen deutlicheren Einfluss als die unterschiedlichen Kapazitäten. Ich habe für ca. Euro 2 Blumaxe bekommen, damit sind sie nur 1/4 so teuer wie die originalen Akkus.

Space


Antwort von Axel:

Mark Spencer von Ripple Training hat den aktuellen Stand von Prores Raw mit der Sony A7Siii - speziell in FCP - gut beschrieben:


Ich fasse einige aus meiner Sicht wichtige Punkte zusammen:

1. FCP/Sony unterstützen nachträglich eingestellte ISO-Werte, aber ?noch?? keinen Weißabgleich. Was nicht weiter tragisch wäre, wenn der Temperatur-Regler in FCP mit PRAW so funktionieren würde wie mit XAVC. Oder, da ich schonmal dabei bin, wie der "Temp" in DVR, wenn man XAVC in ACES verarbeitet.

2. PRAW erlaubt ein extremeres Grading ohne Banding im Vergleich zu XAVC. Spencer selbst gibt aber zu, dass man ein der ursprünglichen Aufnahme komplett widersprechendes Bild ansteuern muss, um diesen Unterschied sichtbar zu machen.

3. PRAW wendet keine Rauschunterdrückung an, und generell sieht man öfters Rauschen. Die Rauschunterdrückung bei XAVC in camera ist aber hässlich, sodass man wirklich unterbelichtete Aufnahmen nur mit PRAW und Neat (nein, die bordeigene Rauschunterdrückung in FCP reicht nicht) retten kann. Wiederum muss Spencer ein extremes Beispiel hernehmen. Die Silhouette eines Mannes (sein Motiv!) vor dem Himmel, die aufgehellt wird. Kein realistisches Szenario für Axel.

4. In PRAW gibt es außerdem keine Objektivkorrektur gegen Verzerrung und CA. In FCP müsste man sich einen entsprechenden Filter basteln (was allerdings in Wirklichkeit ein verkanntes Plus ist, da man das sehr einfach kann).

5. Der Dateigrößen-Vergleich, den Spencer macht, ist irreführend, da er H.265 mit PRAW vergleicht. Okay, okay, Raw ist größer, aber davon geht nun echt die Welt nicht unter.

6. Es ist besser, auf ISO 640 oder 12800 unterzubelichten als auf irgend einer anderen ISO richtig zu belichten*, egal ob in RAW oder Gekocht. Da wünsche ich mir glatt, alle anderen ISOs abwählen zu können, so, wie es mit Fokuszonen geht. *EDIT: Am besten ist es natürlich, richtig zu belichten, bzw. + 1,7. Nur, damit keine Missverständnisse aufkommen. Der Ersteller der Phantom-LUTs (Name vergessen) widerspricht auf seinem Blog übrigens ausdrücklich Gerald Undone und sagt, dass seine LUTs auf "0" gerechnet sind, um die volle Dynamik auszureizen. Mir egal, weil ich keine LUTs verwende, aber gut zu wissen.

7. Insgesamt ist das Rig mit dem Ninja vielleicht für den einen oder anderen attraktiv. Ich find's schwerfällig.

Tommy Callaway sah ich zuerst im Zusammenhang mit Godox-LEDs. Er hat nicht mit PRAW, sondern mit REDRAW verglichen, und er kommt zum selben Schluss wie ich:

Nämlich, dass ich meine Traumkamera gefunden habe und "Cine-Cams" wie die Komodo meinetwegen bis zum Sanktnimmerleinstag vor sich hinbooten können. Außerdem, dass, Stand März 2021, gutes Licht zehnmal mehr in's Gewicht fällt als der Codec oder die Auflösung.

Space


Antwort von Jörg:

Nämlich, dass ich meine Traumkamera gefunden habe das ist auch das einzige Argument, welches zählt.
Das Gerät zu nutzen, das einem das Gefühl gibt, etwas in der Hand zu haben, das einem hilft,
die Dinge zu realisieren, die man realisieren möchte.
Jenseits aller Diskussionen über pixel, bits und Codecs.
Freut mich für dich.

Space


Antwort von Axel:

Mediamind, könntest du kurz anreißen, wie du Audio aufzeichnest? Tentacle und Zoom F6? Wie gelöst (keine Erfahrung mit beiden)?
Ich wollte ursprünglich eine PN schreiben, aber da das hier ein Sammelthread ist, warum nicht so eine Lösung auch hier reinschreiben für alle?

Space


Antwort von Mediamind:

Danke Axel, das verlinkte YT Video von Ripple Training fand ich sehr informativ. Die Vorteile von Prores Raw locken mich schon. Die Summe der zusätzlichen Arbeitsschritte ist nicht ohne. Für die Objektivanpassungen (nicht nur die Vignette) habe ich jedoch noch keine gescheite Lösung.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Für die Objektivanpassungen (nicht nur die Vignette) habe ich jedoch noch keine gescheite Lösung.
In der Tat. Ich dachte, es gäbe, zumindest in Motion zum Veröffentlichen, einen gescheiten Warper, aber "Fisheye" ist ein echter iMovie-Effekt, der anscheinend nicht verwendet werden kann, um eine Verzeichnung auszubeulen. Auch zu CA habe ich nichts gefunden, das sich riggen lässt. Ich wollte zuerst sagen, geh dafür doch kurz in DVR Studio (wo es Lens Distortion, Chromatic Aberration und natürlich Vignette gibt). Dann fiel mir wieder ein ...

Hast du das mit der Audiofrage gelesen?

Space


Antwort von Mediamind:

Axel hat geschrieben:
Mediamind, könntest du kurz anreißen, wie du Audio aufzeichnest? Tentacle und Zoom F6? Wie gelöst (keine Erfahrung mit beiden)?
Ich wollte ursprünglich eine PN schreiben, aber da das hier ein Sammelthread ist, warum nicht so eine Lösung auch hier reinschreiben für alle?
habe ich tasächlich übersehen...., Sorry
Ich habe 5 Tentacle SyncE und einen TrackE im Einsatz. Ich nehme einen der SyncE für den F6 zur Versorgung mit Timecode. Man kann den F6 auch einmal nur triggern und dann läuft er mit dem übergebenen TC. Das gab allerdings auch schon einmal Probleme, von daher gehe ich hier auf Nummer sicher und der F6 hat seinen eigenen Tentacle. Für den Bräutigam nehme ich den TrackE und die Braut einen weißen DR10-L. Atmo, Gesang und Reden nehme ich über NTG3 oder ein Pärchen NT5 auf, zusätzlich vom Mischpult des DJ. Je nach Einsatz auch ein Videomic X für Atmo.
Das Instamic habe ich bisher noch nicht bezahlten Einsatz, kommt aber noch.
Alles außer dem Dr10L ist TC fähig und wird im Tentacle Studio synchronisiert.
Bei Interviews und Co ist der TrackE als Backup im EInsatz, ich nehme den Ton normalerweise mit dem NTG3 auf.
Ich hoffe, das war nicht allzu holzschnittartig formuliert, sonst bessere ich noch einmal nach :-)

Space


Antwort von Axel:

Mediamind hat geschrieben:
Alles außer dem Dr10L ist TC fähig und wird im Tentacle Studio synchronisiert.
Ah ja, interessant. Also du sychnronisierst in einem Standalone-Programm vorm FCP-Import. Wie bist du nach all den Monaten mit dem Zoom zufrieden?

Space


Antwort von Axel:

Eben gesehen, noch nicht probiert: wie man S-Cinetone-Farben und SLog3-Dynamik gleichzeitig kriegt. Das so genannte Beste aus beiden Welten. Start markiert:
https://youtu.be/p3wwzeup_nY?t=496
Man darf wohl nur nicht vergessen, "Colorphase +2" (Gerald Undone) rückgängig zu machen.

Okay, in Resolve kann ich Gamma (SLog3) und Farbschema (in diesem Fall Rec709) getrennt einstellen, aber was mache ich in FCP?

Space


Antwort von Axel:

Zu oben beschriebenem SLog3 mit Cinetoneh: ein Problem ist der Gamma-Assist. Die Farben in der Vorschau sind irgendwie „schön“, aber weit entfernt davon, natürlich auszusehen. In Resolve funktioniert es, aber ehrlich gesagt bezweifle ich, dass Leute in einem Blindvergleich automatisch S-Cinetone vorziehen würden.

Space


Antwort von rush:

Ich werfe nochmal die variable Shutter Frage aka ECS auf.

Die FX6 hat diese Funktion ja sinnvollerweise an Board - wäre es da nicht nur naheliegend das die FX3 als auch A7sIII ebenfalls von jener Funktionalität Gebrauch machen könnte per künftigen FW Update?

Oder ist das wieder typisch Sony bei sowas den Rotstift anzusetzen?
Immerhin werden die FX3 und A7sIII doch bewusst als filmende Geräte vermarktet...

Space


Antwort von Axel:

rush hat geschrieben:
Ich werfe nochmal die variable Shutter Frage aka ECS auf.

Die FX6 hat diese Funktion ja sinnvollerweise an Board - wäre es da nicht nur naheliegend das die FX3 als auch A7sIII ebenfalls von jener Funktionalität Gebrauch machen könnte per künftigen FW Update?

Oder ist das wieder typisch Sony bei sowas den Rotstift anzusetzen?
Immerhin werden die FX3 und A7sIII doch bewusst als filmende Geräte vermarktet...
Dass bei der FX3 kein Shutter Angle an Bord ist, kennzeichnet die Kamera noch mehr als das dürftige 4:3-Display als abgespeckte A7Siii. Der Shutter Angle würde die Problematik teilweise lösen. Nur teilweise allerdings, weil man nur auf eine Frequenz feinjustieren kann und in Alltagssituationen eine 40Hz LED inmitten vieler 50Hz Halogens alles vermasselt. Ich seh das Fehlen von ECS gar nicht vorrangig als Problem, zumal es einen wirklich sehr guten Post-Filter gibt, der kein Ghosting erzeugt. Aber Shutter Angle gehört einfach schon aus Prinzip zu einer Cinema Kamera. Oder sehe ich das falsch?

Ist das Sonys Cripplehammer? Wir könnten Feedback geben. Wenn sie es dann per Firmware nachreichen, war's wohl nur Bräsigkeit und keine Kundengängelung. Ein Rätsel ist der trotz Philip Blooms Influenzer-Flehen noch immer fehlende Tier-Augen-AF. Warum sollte der für Foto gehen und für Video nicht? Der Menschenaugen-AF erkennt übrigens häufig Katzenaugen. Wenn ihr daraus schließt, dass ich oft Katzen filme, habt ihr leider Recht ;-)

Space


Antwort von Funless:

Axel hat geschrieben:
Der Menschenaugen-AF erkennt übrigens häufig Katzenaugen. Wenn ihr daraus schließt, dass ich oft Katzen filme, habt ihr leider Recht ;-)
Na solange du sie nicht auf YT hochlädst, ist doch alles gut. ;-)

Space


Antwort von Axel:

Leider sind die menschlichen Haushaltsmitglieder durch Covid zu dick geworden, um eine Kamera zu ertragen. Aber wer weiß? Gibt es eigentlich schon genug augenscharfe, ruhig dasitzende Katzen in 120p mit S-Cinetone auf Youtube?

Space


Antwort von TomStg:

Axel hat geschrieben:
Warum sollte der für Foto gehen und für Video nicht? Der Menschenaugen-AF erkennt übrigens häufig Katzenaugen. Wenn ihr daraus schließt, dass ich oft Katzen filme, habt ihr leider Recht ;-)
Da ich ebenfalls oft einen Kater filme ua mit der A7S3, kann ich bestätigen, dass der Menschen-AF dabei auch funktioniert.

Space


Antwort von Axel:

Axel hat geschrieben:
Gerade gesehen:

... und eben probiert. 12 MB "x.ARW" wird zu 75MB "x.dng". Total verblüffend, wie weit man da einzoomen kann. Aber nur bei sauberen Bildern. Die A7Siii rauscht doof, auch in Raw, und hochgesampeltes Rauschen sieht nach Hafergrütze aus, AI oder nicht. Ist aber alles nicht so wichtig für mich. Bin ein Smartphone-Knippser ...
Und hier der sympathische Chris Hau (mit Daniel Schiffer, Lizzie Peirce und Peter McKinnon). 102 MP? Nur Datenschrott?


Space


Antwort von Axel:

Vielleicht ist dieser "Trick" längst bekannt, aber an mir ging er irgendwie vorbei. Bekanntlich kann man auf dem Touchscreen-Display durch's Menu navigieren, aber die angezeigten Parameter wie Verschlusszeit, Blende, Weißabgleich usw. nicht durch Direkt-Antatschen verstellen.

Es gibt eine Ausnahme: die, äh, Berührungs-Schärfe-Modi. Dieses Video benennt 5 Vorteile der FX3 gegenüber der A7Siii, aber sie finden sich entweder alle auch in der älteren Schwester oder sie sind fragwürdige Vorteile. Stelle wird angesprungen:
https://youtu.be/y9P9LJcz1mM?t=419

Ja, das geht auch bei der A7Siii.

Space


Antwort von rush:

Ich bin auch etwas irritiert das in letzter Zeit einige FX3 vs A7SIII Videos online gehen die praktisch immer die FX3 als klaren Sieger hervorgehen lassen und Vorteile der A7SIII eher ausblenden... Da bekommt man manchmal ein durchaus zwiespältiges Verhältnis zu dem was einem da vorgetragen wird.

Sicher gibt es auch Nutzer die mit der FX3 besser unterwegs sind - aber einige Vergleiche finde ich tatsächlich schon mehr als nur auffällig subjektiv gefärbt.

Interessant fand ich auch das man diesen roten Record Rahmen ja offenbar auch bei der A7S III zuschalten kann und dies nicht exklusiv der FX3 vorbehalten ist.... Da geht jedoch kaum einer drauf ein - merkwürdig.

Glücklicherweise hat man ja als Nutzer die Wahl zwischen beiden Modellen - die sich doch weiterhin sehr viel ähnlicher als fremd sind.

Space


Antwort von Axel:

rush hat geschrieben:
Glücklicherweise hat man ja als Nutzer die Wahl zwischen beiden Modellen - die sich doch weiterhin sehr viel ähnlicher als fremd sind.
Die Ähnlichkeiten betreffen dann eher die "inneren Werte", von denen Christen und Frauen sagen, wir sollten sie höher schätzen. Aber, hey, it's a man's world. Äußerlich ist die FX3 klar die bessere Kamera, zusammen mit der Sigma fp die einzigen echten 4k Pockets. Die FX3 ist wahrscheinlich sehr kurz davor, tatsächlich für die Pocket-nur-Videofilmer die perfekte Kamera zu sein. Man stelle sich vor, das Display sei höher auflösend gewesen und echtes 16:9. Eine aufsteckbare Sucherlupe: voilá! Da hast du deinen (seitlich) artikulierbaren EVF.

Die meisten Generation-Z-Videofilmer hassen EVFs und zahlen für die Amputation.

Mittlerweile bescheinigt Parker Walbeck neuen Sonys eine größere Farbakkuratesse und bessere Hauttöne als *Canons* (besonders in C-Log vs SLog). Blindvergleiche zwischen 6k BM BRAW und 4k Sony 10-bit gehen regelmäßig unentschieden aus (solange nicht geschwenkt wird, weil der RS der BM doch deutlicher biegt, hier liegt, allein und unbesungen, das letzte Alleinstellungsmerkmal der Komodo).

Space


Antwort von groover:

Schon alleine von der Haptik mit Batteriegriff und zwei Akkus find ich die A7Siii angenehmer.
Vom Sucher ganz zu schweigen...

Wie immer gilt in diesem Spiel, "Jeder so wie er will"
LG Ali

Space


Antwort von Mediamind:

Mittlerweile bin ich mit der A7SIII eine Symbiose eingegangen und habe eine Menge Zeugs gedreht. Samstag war ich in der Beuys Ausstellung und Samstag habe ich Tickets für Warhol. Auch da wird die A7SIII wieder im Einsatz sein. Aus meiner Arbeitserfhrung: Das rückseitige Display ist für den Preis nicht angemessen. Man hat nicht nur ein kleineres Display, zusätzlich aufgrund der Seitenverhältnisse oben und unten einen schwarzen Balken, was das Bild zusätzlich verkleinert. Hinzu kommt die geringe Auflösung. Bei der FX3 hat man aber keine Ausweichsmöglichkeit.
Für mich, rein subjektiv, ist das Filmen mit auf Abstand gehaltener Kamera bei Tageslicht kein Spaß. Die Bildkontrolle ist für mich nur in Bezug auf die Komposition über den Monitor möglich. Schärfe könnte ich hiermit nicht beurteilen. Bei Sonnenschein wird dann richtig schwierig. Als ehemalige Fotograf erschließt sich mir auch alleine diese Zwangshaltung mit der nach Vorne gehaltenen Kamera nicht. Das ist deutlich schwerer zu halten, gerade bei längeren Takes würde ich mich komplett verkrampfen und/oder Rückenschmerzen bekommen. Einige YTer stellen es als großen Vorteil dar, dass man die FX3 an einem Handel durch die Gegend schwenkt. Ist nicht meine Art zu filmen...
Zurück zu Ausstellungen (oder auch Streetfotografie/movie): Mit einer A7SIII im Sucherbetrieb gibt es nie Theater. Die Leute sind entspannt, es wirkt ja so, als ob man den richtigen Ausschnitt noch sucht. Mit dieser Kamera assoziert niemand "Film". Die Haltung ist hierbei deutlich günstiger, stabiler und orthopädisch unbedenklicher, gleichzeitig ist der EVF mit der Beste am Markt. Für mich ist die FX3 bei Weitem nicht so umfänglich einsetzbar, wie die A7SIII. Zum Preis: Für den Aufpreis bekomme ich das XLR-Modul für die A7SIII gekauft und kann es auch an anderen Kameras bei Bedarf mitverwenden und habe noch eine Tonspur für Timecode übrig. Abgesehen von dem gimbalfreundlichen Formfaktor habe ich keinen Mehrwert. Der bessere Allrounder ist für mich eindeutig die A7SIII.

Space


Antwort von Axel:

Ich sehe das mit dem EVF ganz genau so. Und generell bin ich nicht übermäßig neidisch auf die FX3. Vor allem, was die nicht sonderlich vielen oder besonders strategisch angebrachten Stativgewinde angeht. Das würde mich eher besonders ärgern (Cage 50 €, Griff oben 25 €, das raubt mir beides nicht die Butter vom Brot). Und ob die Funktionsknöpfe nun mit video-speziellen Namen bedruckt sind? Oh bitte!

Space


Antwort von rush:

So ihr fleißigen A7s III Nutzer - es ist Zeit für 'nen Blick aufs Glas.

Ich mag die AF Möglichkeiten der Kamera durchaus und das 28-75er 2.8 Tamron funktioniert auch prinzipiell recht ordentlich - aber da ich hin und wieder auch Manual Fokus nutze stört mich der Fokusring an der falschen Stelle und das er leider nicht sonderlich linear läuft... da macht das Sony 35er 1.8 oder selbst das 85er Batis mit dem Gummiring deutlich mehr Spaß in Hinblick aufs manuelle fokussieren...

Welche Zooms, insbesondere Standardzooms im Bereich 24/28-70 und WW-Zooms ala 15-35er könnt ihr dahingehend empfehlen? Vielleicht muss ich nochmal umdenken.
Blende 2.8 wäre weiterhin meine Präferenz - andererseits könnte ich auch über ein f/4er nachdenken aufgrund der hohen Lichtempfindlichkeit wenn AF und MF gut funtzen...

Anders gesagt: Welche Objektive performen sowohl in Hinblick auf den AF als auch MF zu Eurer Zufriedenheit?

PS: Noch was zu den Akkus: Die Baxxtar Pro Akkus der IV Generation (2er Set ~70€) laufen problemlos und ohne Fehlermeldung in der A7s III mit der aktuellen Firmware 2.0. Kann sich natürlich u.U. später wieder mal ändern wenn Sony da nachjustiert.

Space


Antwort von roki100:

Du hast Dir also auch die A7SIII geholt...eine tolle Kamera!
Na dann Viel Spaß damit! :)

Space


Antwort von dnalor:

Das 24-70 GM funktioniert super mit Video und verändert auch nicht die Brennweite beim scharfstellen. Ist allerdings recht teuer, aber mittlerweile auch häufig schon gebraucht zu bekommen. Ist meine Brot und Butter Linse für Foto und Video.
Da gibt es noch das Sigma 24-70/2.8, viel günstiger und wohl auch nicht schlechter und noch das Sony FE 24-105/4. Seit neustem gibt es noch das Sigma 28-70/2.8. Mit den drei letztgenannten habe ich aber keine persönliche Erfahrung.

Space


Antwort von rush:

Danke für den Input zum GM.

Das Tamron hält die Schärfe im übrigen auch über den Brennweitenbereich. Optisch hab ich da überhaupt keine Bauchschmerzen mit... allein die Usability ist etwas fummelig wenn's ums manuelle Fokussieren geht. First world problems ;-)

Die Alternativen kenne ich prinzipiell vom "Hörensagen"... beim Sigma 24-70er stolpert man jedoch immer wieder über das "Staubproblem" - ansonsten wäre es wohl das Glas meiner Wahl.
Das 28-70er Sigma ist momentan noch nicht verfügbar und Sigma hat leider eine Meldung bezüglich Ghosting Problemen bei mindestens einer Charge eingeräumt - daher ist es faktisch und praktisch hierzulande auch nicht lieferbar.

Das 24-105er wäre eventuell ein Kompromiss, da bleibe ich auch gelegentlich bei der Recherche hängen.
Und selbst das Tamron 28-200er tönt per se ganz spannend, nur ist die Anordnung des Fokusringes genauso ungünstig platziert und womöglich ähnlich unelegant sofern sie da nicht dran geschraubt haben.

Für Special Interest kommen eh Festbrenner zum Einsatz - aber so'n solider Allrounder hätte schon was. Das 28-70er Sigma schaue ich mir definitiv mal an wenn es verfügbar ist - allein schon die kompakten Maße und der 67er Filterdurchmesser (wie beim Tamron) würden das Invest im Rahmen halten.

Space


Antwort von Axel:

rush hat geschrieben:
Ich mag die AF Möglichkeiten der Kamera durchaus und das 28-75er 2.8 Tamron funktioniert auch prinzipiell recht ordentlich - aber da ich hin und wieder auch Manual Fokus nutze stört mich der Fokusring an der falschen Stelle und das er leider nicht sonderlich linear läuft... da macht das Sony 35er 1.8 oder selbst das 85er Batis mit dem Gummiring deutlich mehr Spaß in Hinblick aufs manuelle fokussieren...
Dieser Tutor erklärt: Es lohnt sich, zu erwähnen, dass, wenn man den Schieberegler am Objektiv von AF zu MF schaltet, die Kamera automatisch ebenfalls umschaltet. Jedoch, wenn Sie die Kamera auf manuellen Fokus stellen und am Objektiv AF wählen, können Sie laut Sony die Kamera beschädigen. Hm, das ist irgendwie unlogisch. Ich verwende diesen Schieberegler gar nicht. D.h. bei mir steht er immer auf AF. Umgekehrt könnte ich's mir gerade noch vorstellen, aber selbst das wäre ja skandalös. Spräche dafür, bei Vorhandensein des Schalters nur den zu benutzen, um zwischen AF und MF zu wechseln. Und was ist mit "Push AF" (Gerald Undones Lieblingsfunktion)?

Hier mal ein paar Ultraweitwinkel:
a) Sigma 14 mm f1.8 ART - 1117g, ? 77 mm, neu 1550 €, gebraucht ~1100 €

b) Sony 16-35 mm f4 OSS - 518g, ? 72 mm, neu 1050 €, gebraucht ~800 €

c) Samyang 18 mm f2.8 - 170g,? 58 mm, neu 290 €


Lobende Erwähnungen:
1. Laowa 12 mm f2.8 Zero D -

2. Laowa 15mm f4 Macro Shift


Das Makro habe ich selbst. Es ist mMn nur als Makro zu gebrauchen, aber halt zusammen mit der Laowa "Probe Lens" das einzige Makro, das diese Schärfentiefe erlaubt. Leider schattet es sich selbst ab, sodass man das Motiv mit Mini-Softbox oder Mini-Ringlicht (bisher nicht gefunden für 77 mm) extra beleuchten muss. Macht Spaß, ist aber zickig.

Gestern gesehen: Behauptung, dass "Exp. Comp. + 1,7" oft zu geclippten Hautpartien führt:

Ich habe das noch nicht erlebt. Kann es sein, dass der Typ "Face Priority in Multi-Metering" (s. 19/56 im Menu) nicht eingestellt hatte? Das muss ich mal ernsthaft testen.

Space


Antwort von Mediamind:

Das man mit dem Objektiv auf AF und an der Kamera MF die Kamera beschädigt, habe ich bisher nicht gehört. Das wäre sehr kritisch. Ich arbeite gerne auch mit Touch AF im MF.
Das hervorragende Sigma ART DGDN 24-70 hat ein Update erhalten:
https://www.sigma-global.com/en/lenses/ ... l=firmware
Hier wird ein Fehler in diesem Umfeld (Focus) adressiert:
It has fixed the issue whereby the MF Assist is cancelled on the SONY ?7S III when shooting in the manual focus (MF) or direct manual focus (DMF)

Space


Antwort von Axel:

Mediamind hat geschrieben:
Touch AF im MF.
Das ist eine sehr coole Funktion.
Mediamind hat geschrieben:
It has fixed the issue whereby the MF Assist is cancelled on the SONY ?7S III when shooting in the manual focus (MF) or direct manual focus (DMF)
Was heißt das? Kein Peaking bei "Touch AF im MF"?

Space


Antwort von rush:

Hey Axel - danke für deine verlinkten Videos, momentan fehlt etwas die Zeit sie mir im Detail anzusehen aber eigentlich wollte ich prinzipiell auch auf was anderes hinaus....

Mich interessieren tatsächlich am ehesten Erfahrungen aus erster Hand - in den wenigsten Videos wird wirklich auf den manuellen Fokus eingegangen - sprich Drehverhalten in Hinblick auf den Throw und die Geschwindigkeit.

Die Fokus Shifts per Touch sind nice und funktionieren... Push AF kenn ich bereits von meiner alten Sony und habe so häufig gearbeitet - umgedreht geht das im übrigens auch wenn man per Back Fokus Button arbeitet - dann kann man via gedrückter AF Taste den Fokus im AF Mode pausieren um ihn auf einem Subjekt zu belassen
und löst die Taste wenn der AF weiterarbeiten soll. Gibt da also durchaus mehrere brauchbare Wege und Arbeitsweisen.

Mir geht's aber tatsächlich primär um die jeweiligen "manuellen" Fokusringe bzw dessen Ansteuerung... Besonders bei Text oder Bildern die man nicht frontal aufnimmt kommen die AF Systeme weiterhin gern ans Limit und da nutze ich dann gern Manual Fokus only. Umso mehr interessiert mich wie responsiv bzw linear die Fokusräder übersetzt sind.

Beim 28-75 ist das leider sehr geschwindigkeitsabhängig und lässt sich meines Wissens nach kameraseitig nicht umstellen - was echt blöd ist, denn wenn schon elektronisch übersetzt sollte das doch ein Klacks sein. Bei Panasonic geht das - meine ich Mal gelesen zu haben aber da bin ich nicht sicher.

Meine beiden Fesbrenner wie das 35 1.8 FE und das 85er Batis erlauben dagegen ziemlich angenehme manuelle Fokuspulls da die Kopplung hier nicht ganz so geschwindigkeitsabhängig agiert sondern eher ein lineares Gefühl vermittelt was ich als angenehm empfinde.

Da man momentan Linsen so kompliziert selbst im Laden testen kann würden mich dahingehend Erfahrungen interessieren.

Lässt sich mit den Sonys wie dem 16-35 f/2.8, 16-35 f/4 oder auch 24-70 f/2.8 GM halbwegs sauber manuell arbeiten?
Gern auch zum 24-105 f/4 falls das jemand hat...

Und nutzt vllt jemand das 17-28er Tamron und kann zum diesem etwas dahingehend berichten?

Videos habe ich tatsächlich viele geschaut aber dieser Aspekt wird leider selten beleuchtet da er für viele womöglich unwichtig ist /.

Achso: AF sollten die Gläser aber dennoch haben... Mir ist klar das rein manuelles Glas dafür besser geeignet ist aber ich habe mit der A7SIII einen Hybriden und suche genau auch hybridtaugliche Gläser die AF aber auch MF halbwegs gut hinbekommen :-)

Danke für jeden der da bei seinen Gläsern Mal drauf achten mag bzw. im Kopf hat was gut klappt

Space


Antwort von dnalor:

Das 24-70GM fokussiert mit der Hand auch recht angenehm. Vor A9 und A1 habe ich damit immer manuell scharf gestellt. Das Batis 85 hatte ich auch mal, das fand ich im Vergleich nicht so gut zu fokussieren, aber das lag auch an dem nicht geriffelten Material des Rings.
Ist aber auch schwierig das einfach so zu empfehlen, am Ende muss du wohl selbst probieren. Eine Möglichkeit wäre vielleicht das ausleihen für einen Tag oder ein Projekt, das Objektiv gibt es recht oft im Rent.

Space


Antwort von rush:

Ich hatte das 24-70er GM sogar eine kurze Zeit vor einigen Jahren - da es aber nicht allzu gut mit der A7RII harmonierte (AFC Fokus funzte nur bei Arbeitsblende) musste es wieder gehen.
Bei den neueren Sonys kein Problem mehr da sie auch abgeblendet noch passabel fokussieren - aber an der A7RII hatte man bei f/8 etwa keinen Spaß mehr während das Tamron die Blende einfach kurz aufmachte damit der AF was zum spielen hatte und dann abgeblendet fotografierte.

Vielleicht zieht es ja doch wieder ein - denn eigentlich benötige ich den Bereich unterhalb von 24mm gefühlt nicht.
Das Sigma 24-70 Art lockt halt in Hinblick auf den Preis - aber von diesem nervigen Staubproblem liest man halt echt häufig.

Ich werde wohl abwarten bis Sigma's kompaktes 28-70er für E Mount dann in den Läden steht... Das wäre für mich ja mehr oder weniger das Pendent zum Tamron mit der Hoffnung auf eine etwas angenehmere manuelle Fokussierung.

Space


Antwort von Mediamind:

Ist eine interessante Frage. Wenn ich manuell fokussiere hat das genau solch den von Rush geschilderten Hintergrund. Das klappt mit allen Objektiven (Sigma 24-70 f:2.8 und 85mm f:1.4 und dem Sony 70-200 f:4) sehr gut. Da ich aber bisher nie nachfokussiere, hat sich die Frage bisher nicht gestellt. Wenn die Schärfe sitzt, der Take gemacht wurde, dann gehe ich immer sofort in den AF.
Einen Focuspull mit veränderlichen Distanzen habe ich praktisch nicht. Dafür ist der AF einfach viel besser als meine manuellen Möglichkeiten.

Space


Antwort von rush:

Ich schaue halt viel und gern durch den Sucher und da ist die Sache mit dem Touch am Display nicht immer möglich bzw. irgendwie ungünstig...

Was mich auch etwas irritiert: wenn das rückwertige LCD Display ausgeklappt ist schaltet der EVF ab und lässt sich auch manuell irgendwie nicht aktivieren... Muss ich nochmal schauen.

Space


Antwort von Mediamind:

Ich habe die Umschaltung zwischen EVF und Monitor auf eine Funktionstaste gelegt. Das ist ein Segen im Vergleich zum automatischen Umschalten. Ich hatte das Video mit den Settings von Matt Johnson an dieser Stelle bereits einmal verlinkt, davon habe ich fast alles übernommen, inkl. des Monitor/EVF Wechsels. Die wesentlichste Ergänzung kam von Axel: Zeitautomatik auf eine Funktionstaste legen. EInmal drücken an, noch einmal drücken aus. Für den schnellen Einsatz ist das unglaublich wertvoll. Ich habe diese Option nun so oft in Verwendung und Ergebnisse sind mit +1.7 Blenden für SLOG3 optimal belichtet.
Axel hatte ein Video weiter oben verlinkt, bei dem jemand bei Skintones von dieser Regel abweicht und gezielt nicht überbelichtet. Mit der Frühjahrssonne habe ich schon teilweise sehr harter Licht, die Skintones sehen dann wirklich nicht optimal aus. Ich werde bei Gesichtern versuchen, nicht mehr so kräftig ETTR zu gehen. Mal schauen.... Im Herbst habe ich die Kamera bekommen, mit Ende der dunklen Jahreszeit kommt langsam mehr Licht ins Spiel, so dass ich hiermit noch Erfahrungen sammeln kann.

Space


Antwort von rush:

Das Umschalten des Monitors/EVF geht aber nur wenn das rückwertige Display nicht ausgeschwenkt ist, oder habe ich da was übersehen?

Mit dem Umschalten an sich klappt das bei mir egal ob im Automatik Mode oder eben via Funktionstaste... Aber nicht wenn das Display weggeschwenkt ist etwa im Selfie Mode wenn man den Protagonisten kurz das Bild zeigen möchte und parallel durch den EVF guckt. Da blieb er irgendwie aus - hab die Kamera aber grad nicht zur Hand...

Bisher probiere ich mit S Cinetone rum und belichte manuell nach Gefühl, teils mit Zebra... Das klappt bisher problemlos.

Slog werde ich ggfs auch hin und wieder nutzen aber da muss ich mich noch reinfummeln.

Space


Antwort von Axel:

Genau, zwischen Monitor unter EVF schalte ich doch relativ häufig um. Deshalb habe ich das auf C1 gelegt. Meine Tastaturberlegung ändert sich so zweimal die Woche, C1 ist geblieben.
rush hat geschrieben:
Das Umschalten des Monitors/EVF geht aber nur wenn das rückwertige Display nicht ausgeschwenkt ist, oder habe ich da was übersehen?

Offenbar.
Auf Seite 48/54 kannst du von Auto auf VF manuell und Monitor manuell umschalten. Das ist kompliziert. Leg es in's FN-Menu oder auf eine Taste.
rush hat geschrieben:
Ich schaue halt viel und gern durch den Sucher und da ist die Sache mit dem Touch am Display nicht immer möglich bzw. irgendwie ungünstig...
Du musst den Monitor im EVF-Betrieb zum Touchpad machen (ich hab alles auf Englisch):
> Menu Seite 47/54
> Touch Operation > On
> Touch Sensitivity > Sensitive (hab ein Panzerglas davor, ohne reicht vielleicht Standard)
> Touch Panel / Pad > Both Valid
> Touch Panel Settings > (nächstes Untermenu)
> Touch Position Mode > Relative Position (ein neuer Trackingpunkt erscheint immer im aktuell getrackten Auswahlrahmen, mit Absolute Position startet's immer in der Mitte, Relative ist besser)
> Operation Area > Right 1/2 (die linke Seite des Monitors ist inaktiv. Bei mir als Rechtsäuger, wo meine Nase sitzt, wenn ich durch den Sucher guck).

Nun musst du den Monitor nach vorne klappen und dafür sorgen, dass die Touch-Operation "Touch-Tracker" (das Icon mit der Hand-Wischbewegung) aktiviert ist. Dann manuell den EVF einschalten. Nun tippst du mit der Fingerspitze auf den schwarzen Monitor, lässt aber die Fingerspitze nicht los! Ein oranges Fadenkreuz erscheint im EVF. Du bewegst den Finger so, dass es auf dem Motiv ist, das scharf sein soll. Dann lässt du los, und das Fadenkreuz wird zu einem weißen Trackingrahmen, der das Motiv verfolgt. Wenn du das Motiv wechseln willst, also eine Schärfeverlagerung, tippst du wieder auf den Monitor und lässt nicht los. Das orange Kreuz ist in dem weißen Trackingrahmen. Du schiebst es woanders hin, und sobald du loslässt, wandert die Schärfe dorthin, usw.
Mediamind hat geschrieben:
Mit der Frühjahrssonne habe ich schon teilweise sehr harter Licht, die Skintones sehen dann wirklich nicht optimal aus. Ich werde bei Gesichtern versuchen, nicht mehr so kräftig ETTR zu gehen.
Wahrscheinlich reicht dann Umschalten auf "0". Zebra ist mit dieser Kamera eher verwirrend. Ich hab früher immer ETTR gemacht, aber jetzt sind mir die Ergebnisse zu unvorhersagbar. Heute hat unser bärtiger Freund ein Video zum Thema hochgeladen:

rush hat geschrieben:
Bisher probiere ich mit S Cinetone rum und belichte manuell nach Gefühl, teils mit Zebra... Das klappt bisher problemlos.

Slog werde ich ggfs auch hin und wieder nutzen aber da muss ich mich noch reinfummeln.
Womit schneidest / gradest du?

Space


Antwort von Mediamind:

Matt ist großartig. Ein interessantes Detail: Unter Iso 640 wird digital geclippt. Man verliert eine Menge DR. Damit sind die Iso kleiner als 640 eher Fake Iso. Ebenso spannend: Unterhalb von Iso 640 funktionieren die Zebras nicht mehr. Ich hatte ja bereits einige Probleme mit den Zebras, dass passt ganz gut ins Bild. Ich folge Matts Rat und nutze 94+ als Untergrenze. Für Skinetones überlege ich, ob ich den Tipp Deines tätowierten Filmers (siehe weiter oben) folge und die Skinetones mit einem Bereich auf C1 als Zebra anlege.
ich arbeite mit Final Cut Pro X.

Space


Antwort von rush:

@Axel... Danke für den verrückten Tipp mit dem Touchpad Mode... Muss man erstmal drauf kommen aber dann funzt es ziemlich intuitiv und ist in der Tat eine gute Lösung für den EVF Betrieb nebst Tracking Funktionalität und so Krams... Muss ich die Tage Mal etwas genauer ausprobieren aber gefällt.

Aber in dem Zusammenhang nervt dann eben auch wieder Sony... Warum ist der EVF nicht unabhängig von der LCD-Display Stellung immer nutzbar? Wer überlegt sich sowas? Es gibt einige Stellungen des Displays in denen der EVF abschaltet und sich auch manuell nicht aktivieren lässt, etwa im Selfie Mode (Protagonist schnell Mal das Bild zeigen während man eigentlich als Operator durch den EVF gucken mag)... Und allgemein bei getilteten Stellungen des Displays schaltet der EVF ab - warum nur?
Irgendwas ist aber auch immer ;-)

Ich schneide seit der Pocket sporadisch in Resolve Studio - bin also durchaus in der Lage mit Luts und der ein oder anderen Node umzugehen aber mag ehrlich gesagt auch den Back to the roots WYSIWYG Charakter von S Cinetone ganz gern... denn eigentlich macht mir Grading überhaupt keinen Spaß und für die privaten Sachen noch weniger und ehrlich gesagt fremdel ich weiterhin mit der ETTR Belichtung da mein Kopf oft sagt Ahhhhhh dat is zu hell ;-)
Alles 'ne Sache der Gewohnheit und bei der Pocket ging es auch - aber ich liebe eben auch den einfachen Modus an Board zu haben...

Space


Antwort von Axel:

rush hat geschrieben:
Aber in dem Zusammenhang nervt dann eben auch wieder Sony... Warum ist der EVF nicht unabhängig von der LCD-Display Stellung immer nutzbar? Wer überlegt sich sowas? Es gibt einige Stellungen des Displays in denen der EVF abschaltet und sich auch manuell nicht aktivieren lässt, etwa im Selfie Mode (Protagonist schnell Mal das Bild zeigen während man eigentlich als Operator durch den EVF gucken mag)... Und allgemein bei getilteten Stellungen des Displays schaltet der EVF ab - warum nur?
Irgendwas ist aber auch immer ;-)
Du machst was falsch oder du hast 'ne lemon. Der EVF schaltet sich allerdings dann ab, wenn du nicht durchguckst. Das passiert nicht, wenn ich meine alte Super-8-Augenmuschel drüberstülpe. Hat also was mit Abschattung zu tun. Bin mal gespannt, wann es endlich die ersten riesigen Augenmuscheln von Hoodman oder so gibt.

zum Bild

(Ich weiß, die Haut clippt, ist ja aber auch nur ein Handyfoto).

rush hat geschrieben:
Ich schneide seit der Pocket sporadisch in Resolve Studio - bin also durchaus in der Lage mit Luts und der ein oder anderen Node umzugehen aber mag ehrlich gesagt auch den Back to the roots WYSIWYG Charakter von S Cinetone ganz gern... denn eigentlich macht mir Grading überhaupt keinen Spaß und für die privaten Sachen noch weniger und ehrlich gesagt fremdel ich weiterhin mit der ETTR Belichtung da mein Kopf oft sagt Ahhhhhh dat is zu hell ;-)
Alles 'ne Sache der Gewohnheit und bei der Pocket ging es auch - aber ich liebe eben auch den einfachen Modus an Board zu haben...
Benutze mal PP8 mit Exp. Comp. + 1.7 und (wichtig) S. 49/54 >Gamma Display Assist >On und >Gamma Disp. Assist Typ. >Auto.
Dann lege in Resolve bei den Projekteinstellungen im Colormanagement folgendes fest:

zum Bild


Das ist alles, was zu tun ist. Du wirst kaum noch etwas ändern müssen. Meiner Meinung sieht das besser aus als S-Cinetone. Und wenn du doch etwas ändern musst, korrigieren zum Beispiel, dann kannst du das ganz schnell in den Primaries:

zum Bild

Alles, was du hier tust, fühlt sich an, als würdest du Raw bearbeiten. "Temp" z.B. lässt das Footage tatsächlich so reagieren wie der Farbtemperatur-Slider in Adobe Camera Raw bei Fotos. A propos Farbtemperatur: kennst du den Trick, "AWB Lock Toggle" auf C4 zu legen? Die Funktion ist nur bei benutzerdefinierten Tasten verfügbar. Einen Custom-Weißabgleich zu machen, ist nämlich nur im Movie-Modus möglich, nicht bei 1,2,3 und M1 usw. Und der Custom-Weißabgleich ist mE für Run&Gun zu umständlich.
Mediamind hat geschrieben:
Für Skinetones überlege ich, ob ich den Tipp Deines tätowierten Filmers (siehe weiter oben) folge und die Skinetones mit einem Bereich auf C1 als Zebra anlege.
Ich hatte das gestern noch probiert. Entweder mache ich was falsch (wahrscheinlich) oder dieser Tip ist der totale Horror. Bei gar nicht mal so krass unterschiedlicher Helligkeitsverteilung auf der Haut habe ich hässliche Zebrapfützen. Drehe ich die Blende gerade so weit zu, dass das Zebra verschwindet, habe ich woanders viele eindeutig unterbelichtete Partien. Sag mal bitte, wie du das machst.

Space


Antwort von rush:

@Axel... Nur noch Mal zum Verständnis.

Kamera aufm Stativ... Ich gucke von hinten durch den EVF und sehe das Bild.
Nun klappe ich den LCD zur Seite weg so das die Person vor der Kamera das Bild über diesen sehen kann.

Ich stehe weiterhin hinter der Kamera und bekomme in dieser Stellung den EVF nicht mehr aktiviert, weder per Taste und auch nicht wenn ich mit dem Auge am Sensor bin und genauso wenig in Kombination dieser Varianten.

Drehe ich den LCD dagegen nun ausgeschwenkt zur Rückseite (also zu mir) - kann ich plötzlich zwischen LCD und EVF umschalten in dem ich die zugewiesene Taste mit der Funktion "Finder/Monitor Sel" betätige....

Schwenke bzw. Tilte ich aber wiederum Display weil ich einen Low Angle Shot machen möchte geht der EVF wieder aus und auch nicht per Tastendruck an...

Kann das nochmal jemand von euch gegenchecken? Da ist doch irgendwas Murks :-)

Slog werde ich die Tage Mal genauer ausprobieren - Gama Assist kenne ich und auch die Unterschiede zwischen den ISO Stufen zu Cinetone werden bereits im Sucher deutlich also die Umschaltpunkte (2000 bei s Cinetone während Slog3 entsprechend bei 12800 in die zweite "Stufe" springt).

Space


Antwort von Axel:

Also natürlich geht nur entweder EVF oder Monitor, nicht gleichzeitig. Aber egal, ob EVF oder Monitor zuerst aktiv waren und egal, in welcher Position sich der Monitor befindet: ich kann immer hin- und herschalten.

Space


Antwort von cantsin:

@Axel & Co., da ihr ja ziemlich tief in der Materie und den Eigenheiten der Kamera sitzt, was ist eigentlich Euer vorläufiges Fazit zur allgemeinen Qualität der A7s III als Videokamera, im täglichen Einsatz? Was seht ihr als die allgemeinen Stärken und Schwächen?



Ich finde ja klassische Testberichte i.d.R. zu oberflächlich, weil sie zu früh, zu schnell und zu oberflächlich gemacht werden, um die wirkliche Praxistauglichkeit sowie Grenzen und Alltagsprobleme einer Kamera auszuloten.

Space


Antwort von rush:

Jupp geht doch - wie so oft ein Einstellungsfehler durch die beiden Ebenen ;-)

Hatte zwar eine Taste dafür programmiert und konnte umschalten - nicht aber in jeder Situation.

Erst wenn man zusätzlich auch im tiefen Setup bei Punkt 6 nochmal auf Manual stellt geht es auch in jeder Stellung.... Sonys Eigenarten sind und bleiben manchmal etwas verwirrend bis man es gefunden hat ;-)

Aber schade das EVF und Display nicht parallel gehen - würde in einigen Situationen auch ganz nice sein... HDMI Out geht ja auch parallel - warum also nicht Finder und LCD?

@cantsin: ich habe die Kamera seit 2 Tagen und arbeite nebenbei - da muss man sich erstmal durchs Menü fummeln wenn man Abends etwas Zeit hat :-)
Ist bei Fuji nicht anders um ehrlich zu sein weil manches nicht auf den ersten Blick total logisch ist aber das sind ja quasi einmalige Setups an die man dann nicht mehr ran muss im täglichen Betrieb... Also ich lass da manchmal kurz Nerven wenn was nicht so klappt wie erhofft aber das meiste geht ja doch wenn man nochmal genauer rumprobiert oder hier den passenden Tipp bekommt.

Wenn die Kamera dann einmal konfiguriert ist kann man ja so ziemlich alles über die Funktionstasten und das Quick Menü und Touch erledigen - da sehe ich wenig Probleme im produktiven Alltag. Zumal man Setups auch abspeichern kann wie es scheint - sollte also selbst beim Nutzerwechsel kein riesen Akt mehr sein wie bei der A7III.

Space


Antwort von Axel:

cantsin hat geschrieben:
@Axel & Co., da ihr ja ziemlich tief in der Materie und den Eigenheiten der Kamera sitzt, was ist eigentlich Euer vorläufiges Fazit zur allgemeinen Qualität der A7s III als Videokamera, im täglichen Einsatz? Was seht ihr als die allgemeinen Stärken und Schwächen?



Ich finde ja klassische Testberichte i.d.R. zu oberflächlich, weil sie zu früh, zu schnell und zu oberflächlich gemacht werden, um die wirkliche Praxistauglichkeit sowie Grenzen und Alltagsprobleme einer Kamera auszuloten.
Die Kamera hat einige moderne Automatikfunktionen. Der Tip von Youtubern mit Brusthaaren ist, die alle pauschal abzuschalten, die Kamera also dumm zu machen. Die BM P6k ist eine dumme Kamera, aber voll darauf ausgelegt, manuell bedient zu werden. Für die Ritter von Nie wäre eine Pocket von Anfang an die bessere Wahl. Aber diese Puristen sind auch nicht konsequent, weil sie AF-Funktionen nutzen, die AE-Funktionen aber nicht. Ich selbst bin bei beidem für einen Kompromiss: sehen, was die Automatik (die nach bestimmten Kriterien, die ich festgelegt habe, arbeitet) vorschlägt, das nachvollziehen und als Ausgangspunkt nehmen, um ggfs. noch manuell einzugreifen. Letzteres dann intuitiv und nach Augenmaß.

Der Autofokus ist gut, aber in dem Moment nicht mehr, wo ich ihn in der aktuellen Aufnahmesituation überfordere. Bei vielen sehe ich Fokuspumpen, auch bei dem oben verlinkten bärtigen Matt (Slider travelled an Kamera vorbei). Eine Kombi aus Objektiv-Eigenart, falsch eingestellter Empfindlichkeit des AF und ungenau gewähltem Trackingpunkt. Manchmal ist MF besser, aber in den meisten Fällen nicht. Es ist am besten, das eine oder andere schnell und nahtlos zuschalten zu können.

Kompliziert ja, aber die Ergebnisse werden besser, als wenn man die Kamera im grünen “Auto”-Modus lässt.

Space


Antwort von Mediamind:

Kann mich Axel anschließen. Ich war nie ein Freund der Automatiken, die A7SIII lässt mich umdenken. Die Belichtung über den Multimessmodus mit Gesichtspriorisierung (Seite 52 der Anleitung, ich kopiere einfach einmal Axels Zitierweise) ist nur ein Beispiel, das klappt wirklich gut. Oder die Auto Whitebalance mit "Stoßfreier WB" (Seite 54), das sind wirkliche Hilfen. Zum AF brauche ich ja nichts mehr sagen. Was mich jedoch noch bewegt: Man kann ja schon seit Längerem bei Sony Gesichter für den AF als Priorität registrieren, z.B. Braut als Prio1 und Bräutigam als Prio2. Ob und wie gut das funktioniert habe ich bisher nicht rausfinden können. Seit Corona habe ich keine Gruppen ohne Maske, bei denen man ein einzelnes Gesicht erkennen erkennen müsste.
@Axel: bisher bin ich nicht zum Ausprobieren den Zebras für Skinetone gekommen, werde berichten ob das für mich läuft. Bei meinen Panas habe ich einen Falscolorlut in der V-Log Ansichtshilfe, so etwas würde ich mir für die A7SIII auch wünschen. Sind die Gesichter grün, passt die Belichtung... Für dieses Feature will ich nicht extra einen Fieldmonitor verwenden.

Space


Antwort von rush:

Also beim WB bin ich glaube auch weiterhin eher traditionell unterwegs und würde diesen bevorzugt manuell setzen oder ein Preset bzw. "passenden K-Wert" wählen.

Besonders bei Slog bekommt man doch ansonsten ggfs im Schnitt die Krise wenn die Farben da leicht zu shiften beginnen zwischen den Einstellungen? Oder wie handhabt ihr das?

Bei Braw der Pocket habe ich den WB ja beim Dreh nur rudimentär eingestellt ohne mich weiter damit zu befassen, aber bei Slog oder auch S Cinetone würde ich das ungern einer Automatik anvertrauen weil man den Weißpunkt im Schnitt ja nicht ganz so leicht setzen kann?

Der Weißabgleich der A7SIII ist ganz gut soweit ich das beurteilen kann - aber bei einem Mix aus verschiedenen Lichtquellen mit unterschiedlichen Temperaturen kommt er für mein Empfinden dann doch auch schonmal an die Grenzen und gleicht für meinen Geschmack hier und da etwas zu warm ab.

Space


Antwort von funkytown:

Mediamind hat geschrieben:
Bei meinen Panas habe ich einen Falscolorlut in der V-Log Ansichtshilfe, so etwas würde ich mir für die A7SIII auch wünschen. Sind die Gesichter grün, passt die Belichtung... Für dieses Feature will ich nicht extra einen Fieldmonitor verwenden.
Kannst Du mir kurz erklären, wie Du das mit deinen Panas machst? Ich nutze die GH5 und S1.

Space


Antwort von Mediamind:

Gerne doch. Mittlerweile gibt es mehrere Quellen für ein Falsecolor Lut. Damals war dieser YTer der erste:

https://www.youtube.com/watch?v=6ePxJuFEwkk

Du kopierst den Lut einfach auf eine SD Karte, dann ab in die Kamera und mit der V-Log Ansichtshilfe diesen Lut dann installieren und verwenden. Gehr für die Gh5, Gh5s, S1,...

Space


Antwort von Axel:

Mediamind hat geschrieben:
Was mich jedoch noch bewegt: Man kann ja schon seit Längerem bei Sony Gesichter für den AF als Priorität registrieren, z.B. Braut als Prio1 und Bräutigam als Prio2. Ob und wie gut das funktioniert habe ich bisher nicht rausfinden können.
Bei der A6500 sah das so aus:

zum Bild


Nun gibt es zwar bei der A7Siii im Movie-Modus im Menu auf Seite 26/54 >Regist Face Priority >On, aber registrieren kann man offenbar nur nach dem Sex-Ch@nge zur Knipse:
M,S,A,P (Foto) - Menu Seite 28/56 >Face Memory >New Registration (sowie Option zur Priorisierung mehrerer registrierter Gesichter, sprich Braut oder Bräutigam).
... und auch das lässt sich weder auf eine Custom-Taste noch in's FN-Menu legen. Ziemlich umständlich.
rush hat geschrieben:
Also beim WB bin ich glaube auch weiterhin eher traditionell unterwegs und würde diesen bevorzugt manuell setzen oder ein Preset bzw. "passenden K-Wert" wählen.
Nichts gegen zu sagen.
rush hat geschrieben:
Besonders bei Slog bekommt man doch ansonsten ggfs im Schnitt die Krise wenn die Farben da leicht zu shiften beginnen zwischen den Einstellungen? Oder wie handhabt ihr das?
Du hast ganz genau Recht. Ich weiß nicht, wie es in euren Klimazonen gerade aussieht, aber hier gilt der Sinnspruch April, April, tut, was er will. Sonne, blauer Himmel, Wolken, Regen, sogar Schnee, und das alles innerhalb der Akkulaufzeit. Nun könntest du sagen, der Stimmungswechsel ist ganz famos, ich möchte das in meinem Video einfangen. Aber von ganz dekonstruktivistischen Filmern abgesehen würde das so keiner aneinanderschneiden. Nicht die gegenüber deiner Methode bessere, sondern die alternative Methode ist dann, praktisch vor jeder Einstellung einen Weißabgleich zu machen.

Uuuund ....
... wenn du die vielen mühselig zusammengesuchten Einstellungen in einem Benutzermodus ("1,2,3" im Kameraspeicher und weiter mit "M1" usw. auf der Karte) gebündelt hast und dann den laut Gerald Undone vorzüglich genauen benutzerdefinierten Weißabgleich machen willst, erscheint diese Tafel: This operation or setting
not available as follows
Shoot Mode
Memory recall
Dafür ist der *Workaround* AWB Hold Toggle (mein C4). Du richtest die Kamera auf eine weiße/neutralgraue Fläche, wartest eine Sekunde (bei "Shockless AWB" fast drei, weswegen ich das abgeschaltet hab), drückst C4, und die Farbtemperatur ist gespeichert, bis du den Vorgang wiederholst (oder die Kamera zwischendurch ausschaltest).
rush hat geschrieben:
Bei Braw der Pocket habe ich den WB ja beim Dreh nur rudimentär eingestellt ohne mich weiter damit zu befassen, aber bei Slog oder auch S Cinetone würde ich das ungern einer Automatik anvertrauen weil man den Weißpunkt im Schnitt ja nicht ganz so leicht setzen kann?
Ein halbwegs passender Weißabgleich ist ganz allgemein eine bessere Ausgangsbasis, und je genauer, desto besser. Allerdings ist der "gefühlt richtige" Weißabgleich eine Philosophie für sich, und nicht die ungeschicktesten Leute hängen ihr an. Continous AWB ist vor allem wegen der Schwankungen in der laufenden Aufnahme Scheiße.
rush hat geschrieben:
Der Weißabgleich der A7SIII ist ganz gut soweit ich das beurteilen kann - aber bei einem Mix aus verschiedenen Lichtquellen mit unterschiedlichen Temperaturen kommt er für mein Empfinden dann doch auch schonmal an die Grenzen und gleicht für meinen Geschmack hier und da etwas zu warm ab.
Es gibt ja drei Voreinstellungen: Standard, White und Ambient. White ist zu kalt. Ambient ist zu warm, Standard ist okay.

Den Mix aus zwei Lichtfarben suche ich immer (aus drei versuche ich zu vermeiden). Und ich stelle auf das Licht ein, das mein Hauptmotiv beleuchtet.

Space


Antwort von omega1978:

mit Exp. Comp. + 1.7 und (wichtig) S. 49/54 >Gamma Display Assist >On und >Gamma Disp. Assist Typ. >Auto.
Dann lege in Resolve bei den Projekteinstellungen im Colormanagement folgendes fest:

zum Bild


Das ist alles, was zu tun ist. Du wirst kaum noch etwas ändern müssen. Meiner Meinung sieht das besser aus als S-Cinetone. Und wenn du doch etwas ändern musst, korrigieren zum Beispiel, dann kannst du das ganz schnell in den Primaries:

zum Bild

Alles, was du hier tust, fühlt sich an, als würdest du Raw bearbeiten. "Temp" z.B. lässt das Footage tatsächlich so reagieren wie der Farbtemperatur-Slider in Adobe Camera Raw bei Fotos.

Hallo, hat jetzt nicht direkt mit der A7S III zu tun, aber wenn du 2 Quellen mischst, z.b. von einer Drohne, dann geht dieser Workflow nicht und ich muss mit Einstellungsebenen arbeiten oder ?

LG
Christian

Space


Antwort von Axel:

omega1978 hat geschrieben:
Hallo, hat jetzt nicht direkt mit der A7S III zu tun, aber wenn du 2 Quellen mischst, z.b. von einer Drohne, dann geht dieser Workflow nicht und ich muss mit Einstellungsebenen arbeiten oder ?
Wie ich mir habe sagen lassen, ist ACES für Material aus einer Quelle eigentlich Quatsch. Es ist genau dafür gedacht, verschiedene Kameras zu mischen und automatisch/halbautomatisch in rec_709 (oder was auch immer dein Timeline-Farbraum ist) zu konvertieren. Hier auf deutsch erklärt (Start markiert):
https://youtu.be/blBIPUkayyc?t=609
Du würdest dann in dem oben verlinkten Color-Management-Dialog statt Sony SLog3 SGamut3Cine schlicht No Input Device Transform (oder so) angeben. Dann könntest du die Clips deiner Drohne getrennt von denen deiner Kamera konvertieren. Und zwar ausschließlich im Color-Tab durch >Rechtsklick auf den Clip >ACES input device transform. Musste das bisher nur mit einigen wenigen Cinetone-Clips machen, weiß daher nicht, wie man die Clips einer Kamera am besten zusammen auswählt und konvertiert, ich höre nur, es ist ein Klacks. Jedenfalls keine Adjustment-Layers und auch keine zusätzlichen Nodes (EDIT: wird vermutlich in Teil 2 des o.v. Videos erläutert ;-))).

Und es stimmt, was Marc sagt: die Farben sehen Klasse aus. Es ist, als ob Resolve sagt, jetzt tun wir mal so, als wäre das alles hier RAW, okay?

Bei LUTs und Color-Space-Transform ist immer eine Menge zusätzlich zu beachten, bei ACES anscheinend nicht.

Space


Antwort von omega1978:

Super danke, werd ich gleich mal probieren.

LG
Christian

Space


Antwort von rush:

Habe das Video im Link noch nicht angesehen aber hier gibt es noch einen SLog3 vs S Cinetone Vergleich der laut Text bereits bestätigt was quasi bekannt ist... S Cinetone ist bereits Out of the Box sehr brauchbar und Slog hat in den Nuancen noch etwas mehr Puffer...

https://www.4kshooters.net/2021/04/09/s ... y-a7s-iii/

Space


Antwort von cantsin:

Man muss ihn nicht mögen, aber dieses Video - das seine Langzeiterfahrung und -Probleme mit der A7sIII zusammenfasst - scheint mir sehr praxisnah (zumindest aus der Vlogger-Perspektive):



Space


Antwort von Axel:

cantsin hat geschrieben:
Man muss ihn nicht mögen, ...

zum Bild

Dieses Foto eines afghanischen Mädchens aus den 80ern stammt von Steve McCurry für National Geographic und gilt als "ikonisch". Es kennt praktisch jeder, fast wie die Mona Lisa. Northrup bezichtigte McCurry in einem Vlog der Ausbeutung eines Flüchtlingskinds, der Missachtung ihrer Privatsphäre und Religion, der Bloßstellung, der schamlosen Effekthascherei und, jetzt kommt's, der groben journalistischen Fälschung. Aber er hatte schlampig recherchiert. Wie ihm zahlreiche mehr oder weniger prominente Fotografen vorwarfen, waren die Fotos zwar gestellt, aber einvernehmlich. Die Lüge in der Kunst ist, zu behaupten, sie würde nicht lügen. Schwindel auf hohem Niveau (Walter Serner) und im Dienste einer anderen Wahrheit als der der banalen journalistischen Tatsache.

Umgekehrt habe Northrup in sensationsheischender Weise und als Verantwortlicher für einen Influenzer-Kanal mit Millionen Abonnenten die Geschichte brutal ausgeschlachtet. Northrup nahm das Video wegen dieses Gegenwinds zunächst raus, veröffentlichte es aber später zusammen mit einem neuen Video, in dem er sich halbherzig entschuldigte. Halbherzige Entschuldigungen, sind, wie wir als Kenner und Opfer zahlreicher passiv-aggressiver Zeitgenossen wissen, die toxischsten überhaupt.

Ich kann nur darum bitten, die Hintergründe selbst zu ergoogeln, denn ich möchte hier Tony nicht meinerseits zu Unrecht anschwärzen. Ihr wäret den ganzen Tag beschäftigt damit, denn es gibt viel zum Thema.

Abgesehen von einer gewissen Hinterfotzigkeit, die einfach irgendwie typisch für Fotografen zu sein scheint, wirkt Tony auf mich ganz nett. Menschen können nett und mies zugleich sein. Mir gefällt der sanfte Spott á la "Toneh" und "Chelseh".
cantsin hat geschrieben:
... aber dieses Video - das seine Langzeiterfahrung und -Probleme mit der A7sIII zusammenfasst - scheint mir sehr praxisnah (zumindest aus der Vlogger-Perspektive):
Northrup sagte über die FX3, eeendlich hat sich Sony erbarmt und den völlig sinnlosen EVF weggelassen. Danke dafür! Das ist im Lichte des jüngsten Updates für die A7Rs eine mMn ziemlich peinliche Aussage. Grob gesagt hat die FX3, wie die A7Siii und die anderen Sony DSLMs, einen 480p Monitor. Und sonst nichts. Und diese beiden Foto-Hybriden haben zusätzlich zum Sucher nun ein (knapp) 720p Display ...

Was er hier sagt, ist zugleich gut zu wissen und wieder dämlich. Ich greife zwei Beispiele heraus:

1. Der Gesichter/Augen AF ist gut, aber wenn Chelsea die Kamera hochhält und Tony mit Touch-AF diese auswählt, geht die Schärfe nach zwei Sekunden wieder zurück auf Chelsea.

Ach, denk mal an! Es heißt Face/Eye-Priority in CAF, und die AF Subject Shift Sensitivity steht auf "3" (d.h. in der Mitte zwischen Locked On und Responsive, das dauert dann etwa zwei Sekunden). Deswegen ist es nicht dumm, einen Custom Button mit Face/Eye-Priority in CAF: ON / OFF zu belegen. Das nicht-menschliche Motiv antippen, dann die eben erwähnte Taste drücken, wenn der Fokus wieder zurück soll, nochmal tippen.

2. Bei Face Priority in Multi Metering Mode ändert sich die Helligkeit ständig.

Hm, ja, stimmt. Ist mir auch schon aufgefallen. Irgendwie ist die Automatik dumm und erkennt nicht, dass es in einer laufenden Aufnahme *vom Stativ* (!!!) normale Helligkeitsschwankungen durch Rumhampeln des Motivs geben kann, die nicht ständig kompensiert werden sollten. Vor Jahrzehnten lernte ich, einmalig zu belichten und einmalig zu pegeln. Dafür ist die AEL-Taste da (die bei mir von Blendenautomatik auf Manuell schaltet). Die hätte das verhindert.

Space


Antwort von cantsin:

Axel hat geschrieben:
2. Bei Face Priority in Multi Metering Mode ändert sich die Helligkeit ständig.

Hm, ja, stimmt. Ist mir auch schon aufgefallen. Irgendwie ist die Automatik dumm und erkennt nicht, dass es in einer laufenden Aufnahme *vom Stativ* (!!!) normale Helligkeitsschwankungen durch Rumhampeln des Motivs geben kann, die nicht ständig kompensiert werden sollten. Vor Jahrzehnten lernte ich, einmalig zu belichten und einmalig zu pegeln. Dafür ist die AEL-Taste da (die bei mir von Blendenautomatik auf Manuell schaltet). Die hätte das verhindert.
Naja, sein Argument ist ja, dass die Kamera ihn erst dann richtig belichten kann, wenn er als Einmann-Operator/-Vlogger mit dem Gesicht vor ihr steht. Also ist AEL da keine Option, es sei denn, man kann es auch per Fernbedienung/App einschalten.

Man sieht an diesen Ansprüchen aber auch, dass wir uns mittlerweile komplett von dem wegbewegt haben, wofür DSLR-Video einmal stand, als es vor gut zehn Jahren (gerade auch hier auf diesem Forum) anfing. Kameras wie die A7sIII funktionieren jetzt auch wie klassische Consumer-/Prosumer-Camcorder aus dem MiniDV-/HDV-/AVCHD-Zeitalter, nur "on steroids".

Space


Antwort von Axel:

cantsin hat geschrieben:
Naja, sein Argument ist ja, dass die Kamera ihn erst dann richtig belichten kann, wenn er als Einmann-Operator/-Vlogger mit dem Gesicht vor ihr steht. Also ist AEL da keine Option, es sei denn, man kann es auch per Fernbedienung/App einschalten.
Die Imaging Edge App erlaubt die Fernsteuerung (ziemlich lag-arme Reaktion bei Touch-Fokus), und AEL ist direkt über dem REC-Button, aber es gibt in der Tat Nachteile:
1. Für SLog3 gibt es keinen Gamma Assist in der App, und die Vorschau ist dann dermaßen konstrastarm, dass sie keine gute Beurteilung erlaubt. Also eher für "Standard" oder "S-Cinetone".
2. Mit Flexible Exposure Mode (mit dem sich Automatiken schnell an- und wieder abschalten lassen) wird man per Warntafel gezwungen, die eigentlich funktionierende Verbindung abzubrechen: "OK".

Schade, dass die woanders mal erwähnte Dritthersteller-App (klusterdegenerierung) wohl nur für Android verfügbar ist.

Space


Antwort von Mediamind:

Ich habe diese App (gibt es für IOS), die nun auch die A7SIII unterstützt:

https://apps.apple.com/de/app/fieldmonitor/id1101913786

Ist eine Alternative zu den herstellereigenen Apps und bietet neben Falsecolor auch die Darstellung des Streams mit Luts.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Ich habe diese App (gibt es für IOS), die nun auch die A7SIII unterstützt:

https://apps.apple.com/de/app/fieldmonitor/id1101913786

Ist eine Alternative zu den herstellereigenen Apps und bietet neben Falsecolor auch die Darstellung des Streams mit Luts.
Ah, vielen Dank. "Add a LUT - camera source only" - schonmal probiert, SLog3 in "VIDEO"-Vorschau anzusehen? Geht das?

EDIT:
Super, danke nochmal. LUT ist schon an Bord. Alles sofort geklappt. Noch kürzere Latenz als Imaging App. Nur eine Frage: • “Ctrl w/ Smartphone“ Sonys do not display focus area, battery level, and/or storage info. Focus points can’t be set in the app (except with the A7Siii). Hab alles gefunden. Touch focus (also, äh, focus points?) scheint aber nicht zu gehen. Oder wie mach ich das?

Space


Antwort von Axel:

Axel hat geschrieben:
Touch focus (also, äh, focus points?) scheint aber nicht zu gehen. Oder wie mach ich das?
Hab's gefunden. Während in der Imaging Edge App die zarteste Berührung reicht, muss man hier schon etwas kräftiger drücken. Der Lag bei Befehlen scheint auch größer zu sein. Unterschied zur Sony App: auch mit Flexible Exposure funktioniert die Übertragung, nur Blende und Verschluss reagieren dann nicht. Die SLog3-zu-709-LUT ist mir etwas zu farbenfroh, aber besser als ohne.

Beim Ausprobieren der Falschfarben habe ich mir erneut die Frage gestellt, was mir das bringt, wenn ich nicht vorher den Kopf des Darstellers in einen Schraubstock stecke, das Gesicht pudere und überhaupt nur noch vom Stativ mit fixem Licht aufnehme. Dieser App-Reviewer hier demonstriert mit Colorchecker ironischerweise, dass es auch mit Graukarte nicht funktioniert, weil er, wie der Typ in dem oben verlinkten Northrup-Video, einfach nicht stillhält und so seine Stirn gelegentlich clippt:

zum Bild


Diese unregelmäßigen Pfützen, in denen 41%, resp. 55% IRE angezeigt werden, sind auch typisch für die Zebra-Methode. Ich denke, mit Augenmaß klappt das besser und zuverlässiger und ist weniger verklemmt ...

Space


Antwort von Mediamind:

Sorry Axel für die späte Antwort. Ich kam nicht dazu dass mit der A7SIII zu probieren. Vorteil dieser App ist, dass man markenübergreifend unterwegs ist.

Space


Antwort von rush:

Smallriig bietet jetzt eine kleine Gegenlichtblende "Sunhood" für das aufgeklappte Display an. Für Nutzer die das entsprechende Display regelmäßig draußen nutzen evtl hilfreich und für $15 auch erschwinglich.
Passt neben der A7s III auch der FX3, A7C und ZV-1
Screenshot_20210421-072758_Chrome.jpg Bildquelle: smallrig.com / Teilenummer 3206

https://www.smallrig.com/smallrig-sunho ... -3206.html

Space


Antwort von Axel:

Danke. Hatte ich bis jetzt für jede Kamera, kam sonst immer von JJC, kam auch immer so 15 €. Profil "Draußen/Gimbal resp. Glidecam".
Erfüllt außerdem die Doppelfunktion als Sonnendach für Hund und Katz, aufgrund der Dimensionen:

zum Bild


Darunter, sehr interessant: ein neuer FX3-Käfig. Wie hieß es gleich beim Lob der FX3? Die Bohrungen im Body machen ein Cage überflüssig? Nicht, wie ich schrieb, wenn man die Kamera verwindungsfrei auf einen Gimbal packen will, denn dafür braucht man zwei Schrauben am Boden:

zum Bild


Irgendwann erbarmt sich Kamerar oder Fotga und bietet für die FX3 eine Sucherlupe an, damit sie wenigstens sowas Ähnliches wie einen Sucher hat.

Space


Antwort von Axel:

Nicht neu, aber schön übersichtlich gemacht: Gyro-Stabilisierung in Catalyst Browse.

Abgesehen von diesem Alleinstellungsmerkmal hat CB, wie Stolarz erwähnt, ein weiteres. Nämlich die für Sony vollständigste Metadaten-Aufbereitung.

Space


Antwort von rush:

Neue Firmware für die A7SIII verfügbar:

Version 2.01

Fixes an issue where a Picture Profile may be applied even though the Picture Profile feature is set to Off

Improves the operational stability of the camera when using the Imaging Edge Desktop (Remote) or Imaging Edge Mobile apps

Fixes an issue where an error message may appear while shooting at a high shutter speed

Fixes an issue where a file saved in the memory card may not be loaded by the Save/Load Settings

Improves the overall stability of the camera

Download

https://www.sony.com/electronics/suppor ... e/00257138

Space


Antwort von Axel:

rush hat geschrieben:
Neue Firmware für die A7SIII verfügbar:

Version 2.01
Na endlich! System Requirements

Operating Systems

The latest version of the system software update is compatible with the following Macintosh versions:

macOS 10.14, 10.15, 11 Ein paar Beobachtungen in Folge meiner Anschaffung des 70-200 f4 Objektivs. Dieses Objektiv ist so groß, wie ein Video-Objektiv für mich maximal sein darf. Es ist gut, um mit der A7Siii so etwas wie ein Tele-Feeling aufkommen zu lassen. Eigentlich ist es aber für mich zum Sterben zu viel und zum Leben zu wenig. Mit der A6500 und dem ultrakompakten 18-105 hatte ich durch den 1,5 x APSC-Crop per se schon ein 157,5mm. Da aber der Sensor der A6500 24 MP hat und das Videobild eh downsampelt, ist der 2-fache Clear Image Zoom (die A7Siii hat hier nur 1,5x) ohne Auflösungsverluste anwendbar, sodass das 105er effektiv ein 315mm ist. Ohne jegliche Probleme auch auf dem schwachen Ur-Zhiyun-Crane durch die Gegend zu schleudern.

Das 200er mit der A7Siii ist auf dem Gimbal möglich (auf dem Weebill S, habt ihr den Ronin SC2 oder SC? Macht das nochmal einen großen Unterschied?), aber das 200er mit der A6500 ist auf dem Gimbal voll okay (wenn auch durch die hinten raushängende Miniaturkamera natürlich solche Mätzchen wie Underslung nicht gehen, aber komplett uninteressant). Es ist dann nach o.g. Rechnung ein 600 mm, und ab da wird's spannend.


Aus diesem banalen Grund bin ich froh, die A6500 doch noch nicht verhökert zu haben. Diese Kamera ist in allem ansonsten schlechter bis sehr viel schlechter. Ironischerweise in genau dem einen Punkt nicht so sehr, den ich in jahrelangem Warten auf so etwas wie die A7Siii für den entscheidendsten gehalten hatte: Farben und Farbtiefe. 8-bit macht bei gutem Licht und guter Belichtung in SLog2 (und allerdings den GFilm-Farben, die ich schon immer eingestellt hatte) einen guten Job. Am dramatischsten kackt das Ding bei der Lichtempfindlichkeit ab.

EDIT: ... und 24MP vs. 12MP ändern an der Tatsache nichts, dass ich wesentlich bessere Fotos mit der A7Siii hinkriege.

Statt ein unglaublich pansiges und lächerlich teures Super-Tele zu kaufen, empfehle ich eine übel mitgenommene A6300 (oder so). In Innenräumen oder nachts brauche ich kein Supertele.

Space


Antwort von Mediamind:

Hallo Axel... habe die Optik auch schon am Gimbal montiert. Bei längerer Brennweite wird das Ganze irgendwie schwierig in der ruhigen Handhabung.
Ich finde das Objektiv ist eine tolle Ergänzung zum Standardzoom 24-70. Der Stabi liefert gute Ergebnisse, das Bokeh ist gut, Freistellung vonPersonen ist in jeder Hinsicht ästhetisch gut möglich. Wo kommt denn Dein Störgefühl her? Ich hatte eine Weile an der D500 (APS-C) ein Nikon 70-200 f:2.8. Das war für Fotos wirklich gut, bei Video ist die extrem kleine Schärfeebene für meinen Geschmack zu viel.
Liegt es bei Dir an der Brennweite, Qualität des Bildes oder an der Blende?

Space


Antwort von Axel:

Brennweite. 200 ist für meinen Geschmack eher eine exzellente Portrait-Brennweite.
https://youtu.be/Zs-kXv-9dcA?t=341
Aber das Objektiv selbst ist große Klasse. Ich brauche nicht mehr als f4.

Space


Antwort von groover:

Ungewohnte Eigenschaft seit dem letzten Update.......
Bei allen meinen vier A7S3 funktioniert die automatische Umschaltung von Display zu Sucher nicht mehr.
Besagte Umschaltung soll ja das Display abschalten, wenn man mit dem Auge an den Sucher geht.
Irgendwas ist da jetzt anders........

Wie schaut das bei euch aus?

LG Ali

Space


Antwort von rush:

Nicht auszuschließen das sich da im Menü was verstellt hat...
Hast du die entsprechenden Punkte gecheckt?

Ich habe das Update noch nicht vollzogen aber mich nervt sowas bei einigen Kameras das gemachte Settings mit Updates überschrieben werden und das nicht immer klar kommuniziert wird. Ob das bei der 7SIII jetzt so ist weiß ich nicht.

Auch gab es bei Sony früher bei einigen Modellen gelegentlich Probleme Settings mit älteren Firmwares in neuen Kamerabersionen zu laden... Es ging meist - aber unter der Haube verstellte sich gerne Mal was.

Space


Antwort von groover:

.....für mich gilt ja die Unschuldsvermutung.

Die Einstellungen zum Umschalten steht nach wie vor auf „Auto“ und sonst funktioniert alles wie gehabt. Mit Ausnahme besagter Eigenschaft.

Sonderbar......

Ali

Space


Antwort von Axel:

rush hat geschrieben:
Nicht auszuschließen das sich da im Menü was verstellt hat...
Hast du die entsprechenden Punkte gecheckt?

Ich habe das Update noch nicht vollzogen aber mich nervt sowas bei einigen Kameras das gemachte Settings mit Updates überschrieben werden und das nicht immer klar kommuniziert wird. Ob das bei der 7SIII jetzt so ist weiß ich nicht.

Auch gab es bei Sony früher bei einigen Modellen gelegentlich Probleme Settings mit älteren Firmwares in neuen Kamerabersionen zu laden... Es ging meist - aber unter der Haube verstellte sich gerne Mal was.
Ich habe das Update auch noch nicht vollzogen, weil irgendwie die Kamera nicht vom Updater erkannt wird.

Davon abgesehen waren nach dem letzten Update auch noch alle Einstellungen da.

Man kann sie auch auf der Karte speichern, zur Sicherheit.

Und man hat sie auch nach etwas Übung in wenigen Minuten wieder manuell eingestellt.

Space


Antwort von rush:

Axel hat geschrieben:

Man kann sie auch auf der Karte speichern, zur Sicherheit.

Und man hat sie auch nach etwas Übung in wenigen Minuten wieder manuell eingestellt.
Ich erinnere mich halt noch an die FS7 bei der das mit den gespeicherten Settings alter Softwarestände auch Mal zu Problemen bishin zu Abstürzen führte wenn man damit neuere Kameras fütterte und bestimmte Funktionen ausführen wollte.

In "wenigen" Minuten hätte ich eine neue bzw. zurückgesetzte A7sIII jedenfalls nicht wieder vollumfänglich nach meinen Bedürfnissen grundkonfiguriert - dafür sind noch zu viele Dinge anpassbar bzw meinerseits verstellt ;-)

Aber gehen wir Mal davon aus das sich die Settings nicht verändern. Umso besser und so sollte es ja idealerweise auch sein.

Bleibt die Frage was dann bei Ali los ist.

Space


Antwort von TomStg:

groover hat geschrieben:
Ungewohnte Eigenschaft seit dem letzten Update.......
Bei allen meinen vier A7S3 funktioniert die automatische Umschaltung von Display zu Sucher nicht mehr.
Besagte Umschaltung soll ja das Display abschalten, wenn man mit dem Auge an den Sucher geht.
Irgendwas ist da jetzt anders........
Kann ich bestätigen.

Mit Firmware 2.01 funktioniert die Umstellung zw Sucher und Display nur noch manuell.

Space


Antwort von Axel:

TomStg hat geschrieben:
groover hat geschrieben:
Ungewohnte Eigenschaft seit dem letzten Update.......
Bei allen meinen vier A7S3 funktioniert die automatische Umschaltung von Display zu Sucher nicht mehr.
Besagte Umschaltung soll ja das Display abschalten, wenn man mit dem Auge an den Sucher geht.
Irgendwas ist da jetzt anders........
Kann ich bestätigen.

Mit Firmware 2.01 funktioniert die Umstellung zw Sucher und Display nur noch manuell.
*VIER* A7Siii?
Das hatte ich überlesen, wow!

Ich selbst finde und fand bei allen Kameras, die ich hatte, die automatische Umschaltung eher irritierend. Gerne opfere ich darum einen Button oder einen FN-Menu-Platz zur manuellen Umschaltung. Interessant übrigens, dass wenn ich manuell auf Viewer geschaltet hab, dieser erst angeht, wenn ich mich nähere. Es muss etwas mit Abschattung zu tun haben, denn mit zweckentfremdeter großer Suchermuschel bleibt der EVF an. Vermutlich nicht zu empfehlen, da angeblich der EVF der größte Stromverbraucher der Kamera ist.
Axel hat geschrieben:
rush hat geschrieben:
... mich nervt sowas bei einigen Kameras das gemachte Settings mit Updates überschrieben werden und das nicht immer klar kommuniziert wird. Ob das bei der 7SIII jetzt so ist weiß ich nicht.
Man kann sie auch auf der Karte speichern, zur Sicherheit.
Witzigerweise war genau deine Befürchtung, dass das Speichern und Laden misslingt, Grund für einen aktuellen Bugfix: "Sony"]Fixes an issue where a file saved in the memory card may not be loaded by the Save/Load Settings [quote=Axel hat geschrieben:
Und man hat sie auch nach etwas Übung in wenigen Minuten wieder manuell eingestellt. Bei 4 (in Worten: VIER) Kameras gehe ich davon aus, Ali, dass du die Settings einfach bei den restlichen dreien übertragen hast.

Space


Antwort von groover:

Zitat:
"Bei 4 (in Worten: VIER) Kameras gehe ich davon aus, Ali, dass du die Settings einfach bei den restlichen dreien übertragen hast."

......genau, die erste hab ich für mich bedienfähig konfiguriert, dann auf die Zweite übertagen und zwei Wochen später dann auf die letzten Beiden.

Eine Sicherheitsspeicherung ist auf einer externen Karte, nur zur Vorsicht.

LG Ali

Space


Antwort von Mediamind:

Heute werde ich das Update installieren. Ich habe die Umschaltung zwischen EVF und Monitor auf einen FN Button gelegt, das hat sich bewährt. Nur mal als Frage an Ali: in welchem Bereich setzt Du denn gleich 4 Kameras ein?

Space


Antwort von groover:

Fernseh-Doku und Imagefilme.......
LG Ali

Space


Antwort von Mediamind:

Sonys Software ist... wie soll ich es sagen ... eigenwillig. Ich habe jetzt mehr als 10 Versuche hinter mir die Firmware zu installieren. Die Kamera steht auf USB Massenspeicher, der Updateprozess bricht jedes Mal mit Fehlermeldung ab. Es kommt der Hinweis, ich soll die Kamera entfernen und neu verbinden....
Auf der Kamera kommt (nicht jedes Mal) der Hinweis, ich soll das angeschlossene Gerät überprüfen. Update ist nicht möglich. Ich habe es auf einem Intelmac mit Big Sur versucht. Ging das bei Euch glatt über die Bühne? Axel hatte ebenfalls Probleme. Muss ich wirklich einen Windoofrechner bemühen?

Space


Antwort von groover:

...du musst im Menü/grüner Abschnitt/Übertr. Fernb./ Strg mit Smartphone auf "ein" stellen.
(oder auf "aus" wenn es nicht funktioniert, das weiß ich grad nicht genau)
Dann sollte es funktionieren.
LG Ali

Space


Antwort von Mediamind:

Hallo Ali,
das hat auch keinen Erfolg gebracht. Am Mac mit Big Sur geht es scheinbar nicht. Ich habe noch einen älteren Mac, mal schauen, ob es da funktioniert.

Space


Antwort von groover:

ah, genau stimmt, bei mir hat es am Mac auch nicht funktioniert, nur am PC dann.
Schade......
Ali

Space


Antwort von Axel:

Mediamind hat geschrieben:
Axel hatte ebenfalls Probleme. Muss ich wirklich einen Windoofrechner bemühen?
Ich war gestern zum Arthouse-Filmabend bei einem Schulfreund. Bei dem hab ich das letzte Mal Windows-upgedatet, und zwar ohne alle Zicken. Wollte nur gestern die Kamera nicht mitnehmen wegen der Ausgangssperre. Für den Fall, dass auf mich geschossen würde. Tja, zu viele Filme ...

Space


Antwort von Abercrombie:

Hallo zusammen!
Bei mir hat es immer Mac mit Big Sur wunderbar funktioniert. Allerdings ist der Update-Prozess ein bisschen aufwendiger. Es muss ja zuerst dieses Helper-Tool installieren und es dann noch in Systemenstellung freigeben werden. Danach ging das Update aber problemlos.

Welche Custom-Menus und -Keys habt ihr eigentlich so eingerichtet? Ich bin noch im Prozess und frage mich, was andere so machen. Vielleicht können wir hier Screenshots von den Custom-Einstellungen zur Inspiration einstellen? Was meint ihr?

Viele Grüße,
Cromb

Edit: Automatischer Wechsel LCD/Viewfinder funktioniert bei mir auch mit 2.01 noch problemlos.

Space


Antwort von rush:

Update soeben auf V2.01 vollzogen unter Win10 - dauert ein Weilchen aber läuft sauber durch.

Automatisches Umschalten zwischen Finder und Monitor funzt bei mir auch weiterhin wenn man im entsprechenden Menü: "Werkzeugkasten">6 Finder/monitor>select Finder/Monitor auf Auto setzt.
Allerdings klappt das automatische Umschalten weiterhin nur wenn das Display nicht "getiltet" ist sondern plan ausgeklappt oder auf der Rückseite plan aufliegt. Sobald man es tiltet oder nach vorn klappt erfolgt weiterhin leider keine automatische Umschaltung zwischen Finder & Sucher - weswegen ich die automatische Umschaltung auch deaktiviere da sie so für mich wenig sinnvoll ist wenn man mit ausgeklappten Display arbeitet und das in vielen Situationen dann eben nicht klappt mit der Umschaltung.
Ist mir ein Rätsel warum das so gelöst wurde und macht in meinen Augen wenig Sinn bzw. ist sogar ziemlich bekloppt :D Vielleicht schick ich mal ein Support-Ticket an Sony...
Laut FAQ ist dieses Verhalten so vorgesehen
"Der Okularsensor wird automatisch deaktiviert, während das LC-Display geöffnet ist. Daher schaltet das Display der Kamera nicht automatisch um, wenn Sie durch den Sucher schauen.
Wenn das LC-Display geöffnet ist, erhält die Live View-Funktion Priorität, um Sie bei der Aufnahme in einer hohen oder niedrigen Position zu unterstützen, damit Sie die gewünschten Fotokompositionen im Hoch- oder Querformat erhalten."

Das macht in meinen Augen weiterhin nur wenig Sinn. Wozu eine Priorisierung? Entweder möchte man ein Auto-Umschaltung (die man bei Bedarf per Tastendruck overriden kann) - oder man möchte es nicht. Aber das die Kamera von sich aus das LCD-Display priorisiert und nicht mehr umschaltet empfinde ich in meinem Nutzungsverhalten eher als Bremse.

Space


Antwort von groover:

Zitat Abercrombie:
"Welche Custom-Menus und -Keys habt ihr eigentlich so eingerichtet?"



Hier mal meine Custom Settings:
Profile1:
PP10-HLG3 10bit 422, 50P, XAVC S 4K (für TV Reportagen)
C1 SteadyShot (standard)
C2 Fokusfeld (weit)
C3 AF-C/M Focus (AF-C)
C4 1,5 fach Tele
AF-ON Gesichtsautofokus =On/Off (bei mir auf C1 ON)
AEL Belichtungssperre
Fn Foto/Video Profil
Drehrad:
links-Audiolautstärke
oben-Display
rechts-ISO (bei mir als Ausgangseinstellung auf Auto)
unten-Weißabgleich (bei mir als Ausgangseinstellung auf 5600)

Abweichung zu Profile2:
selbige Einstellungen nur bei C2 Fokusfeld Spot, C3 AF-C auf Push-Autofokus, AF-ON ausgeschaltet

Abweichung von Profile1 zu Profile3
Aufnahme in PP8-Slog3
Zebra 94+

Aufnahmekarten SONY Tough 160GB CF-TypA
Jeweils mit Batteriegriff (wegen längerer Akkulaufzeit)

Diese Einstellungen sind auf allen vier Geräten identisch.
LG Ali

PS.: hier mal schnell die Teile abfotografiert....

Space


Antwort von Axel:

@Abercrombie
In diesem Thread sind viele Einstellungen erwähnt. Alle ziemlich von persönlichen Erfahrungen und eigenen Schwerpunkten abhängig. Es würde z.B. wenig nutzen, die Philip-Bloom-Einstellungen zu laden, wenn man sie nicht vorher alle genau angesehen, verstanden und nachvollzogen hat. Man findet immer wieder Tips, aber eigentlich konfiguriert man besser selbst. Ich finde, man kann schnell einen Überblick gewinnen, wenn man sich klarmacht, dass sich 50% der Bedienung mit Belichtung und die anderen 50% mit Fokus befassen. Welche Bedienungsshortcuts dir da am schnellsten verfügbar sein müssen, um das Verhalten der Kamera zu steuern.

Aktuelle Belegung:
Rear 1
1 -(zentrales Drehrad, verstellt normalerweise ISO, auch, wenn man nicht rechts auf ISO gedrückt hat= gefährlich): Aperture (kein Umgreifen nötig zur Blendenverstellung)
2 - (AEL) - AV Auto/Manual Switch
3 - (AF-ON) - Focus Hold
4 - (C1) Finder/Monitor Select
5 - (C3) - Tv Auto/Manual Switch
6 - (C4) AWB Lock Toggle (einzige WB-Einstellung überhaupt, fixiert den AWB Std., wenn auf Karte gerichtet)

Rear 2
1 - Not Set
2 - Not Set
3 - AF Transition Speed
4 - ISO
5 - Focus Magnifier (4x, ohne Zeitlimit)

Top

1 - (Movie Button) - Switch Focus Area
2 - (C2) - Face/Eye-Priority Select

Lens

1 - AF/MF Selector Toggle

PP8 fix (Color Phase + 3), weitere Color oder Picture Profile - Einstellungen daher überflüssig, Exp-Comp-Rad wird bei allen außer sehr hellen Situationen auf +1.7 fixiert.
M1 - 25p XAVC-I @ 1/50 bei f4, Active Steady Shot, AWB, ISO 640
M2 - S&Q 25p @ 50p XAVC-S, 1/100, Steady Shot Off, AWB, ISO 640
M3 - S&Q 25p @ 100p XAVC-S, 1/200, AWB, ISO 128000

Space


Antwort von rush:

Nutzt Du tatsächlich die S&Q Funktion?
Ich habe mein High-Speed Setting (bei mir auf M2) einfach auf 100p @ 1/200 422 10bit (280M) stehen - ohne aktiviertes S&Q... damit kann ich die SloMo zwar nicht in der Kamera sehen/beurteilen - habe aber weiterhin Atmo-Ton was mir in dem Fall wichtiger ist.

Space


Antwort von Axel:

@rush
Mach ich vielleicht auch mal so. Ich bin da nicht dogmatisch. Das mit dem Ton ist ein Argument.

Space


Antwort von Mediamind:

Ich habe von Matt Johnson die Einstellungen zu 90% übernommen. Auf M2 und M3 nutze ich statt S&Q auch die "normalen" 50P und 100P. Zur Iso-Einstellung: Default ist einmal das Rad rechts betätigen, dann auswählen und bestätigen. Danch verstellt sich die Iso nicht mehr = ungefährlich :-)
Axel: hast Du ggf. Iso am Rad anders konfiguriert?
Und nun seit ein paar Wochen in Benutzung: auf AEL Zeitautomatik an und wieder aus (Axels Tipp). Das hat mir schon einige Shots gerettet, bei denen keine Zeit für Filterwechsel bestand oder man bei Blende 22 gelandet wäre.
Das Update ist durch, es lag an der Sicherheitseinstellung für dieses tumbe Zusatzprogramm.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Zur Iso-Einstellung: Default ist einmal das Rad rechts betätigen, dann auswählen und bestätigen. Danch verstellt sich die Iso nicht mehr = ungefährlich :-)
Axel: hast Du ggf. Iso am Rad anders konfiguriert?
Nein, genau so ist es jetzt. Zwischendurch mal konnte ich ISO direkt verstellen mit diesem Rad, was doof war. Da habe ich wohl den Ring des "Multiselectors" selbst mit ISO belegt. Aber für Blende finde ich es praktisch.
Mediamind hat geschrieben:
Das Update ist durch, es lag an der Sicherheitseinstellung für dieses tumbe Zusatzprogramm.

zum Bild


Ich komme über diesen Schirm nicht hinaus. Es ist das originale USB-C-Kabel. Kann mich nicht erinnern, das Micro-USB "MULTI"-Kabel jemals benutzt zu haben. Mit oder oder ohne Karten. Ob ich die Kamera einschalte und dann das Kabel anstecke oder umgekehrt, es geht nicht >Weiter.

Space


Antwort von Axel:

Axel hat geschrieben:
Ob ich die Kamera einschalte und dann das Kabel anstecke oder umgekehrt, es geht nicht >Weiter.
Ähhm, sorry, doch. Mit "Weiter" ;-))
Die Kamera wird im zweiten Schritt erkannt ...

EDIT: der Auto-Switch von EVF zu Monitor und umgekehrt funktioniert.

Space


Antwort von groover:

.....yes, is bei mir auch so.
Der Trick ist, dass der Auto switch funktioniert, wenn das Display aufgeklappt ist und gerade steht.
Man lernt nie aus.....
Danke in die Runde.
LG Ali

Space


Antwort von Mediamind:

Axel, dieses Programm hattest Du aber installiert?

https://www.sony.de/electronics/support ... e/00258098

Hierfür ist es erforderlich, dass Du in den Privacy Settings das Programm berechtigst. Dieser letzte Schritt hatte bei mir "geklemmt".

Space


Antwort von rush:

groover hat geschrieben:
.....yes, is bei mir auch so.
Der Trick ist, dass der Auto switch funktioniert, wenn das Display aufgeklappt ist und gerade steht.
Man lernt nie aus.....
Danke in die Runde.
LG Ali
Yo gern - wirklich schön und praktisch empfinde ich dieses Verhalten aber wie gesagt nicht und habe Sony Mal ein Ticket dahingehend geschickt... Wird sicherlich im Sande verlaufen aber man kann es ja Mal probieren.
Der Sinn dahinter erschließt sich mir eben nicht auch wenn die FAQs sagen "das muss so". Unbefriedigend.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Axel, dieses Programm hattest Du aber installiert?

https://www.sony.de/electronics/support ... e/00258098

Hierfür ist es erforderlich, dass Du in den Privacy Settings das Programm berechtigst. Dieser letzte Schritt hatte bei mir "geklemmt".
Ja, ich bin doof, typischer Applemensch. Ich hab das installiert und dann nirgends gefunden. Das FW-Update-DMG hatte ich auch geladen. Es dauerte 'ne Weile, bis ich gecheckt hab, dass das Installationsprogramm (das Icon) erst durch's Öffnen des FW-Images sichtbar wurde. Dann, wie beschrieben, das Warten auf Godot. Ginge das eleganter? Ach, keine Ahnung. rush hat geschrieben:
... und habe Sony Mal ein Ticket dahingehend geschickt... Wird sicherlich im Sande verlaufen aber man kann es ja Mal probieren.
Was wären eure Top-Punkte auf der Wunschliste?

Ich unterstütze gerne den Auto-Switch in jeder Monitor-Position und auch die Option, Monitor und EVF gleichzeitig an zu haben (und schwupps! - geht der Akku alle).

Dann geht es ja bekanntlich im MF- und AF-Modus, durch Berühren des Displays einen Fokuspunkt zu setzen. Ich wünschte mir, das ginge auch durch Drehen des Fokusrings. Es gibt viele Situationen bei sDoF und eher kontrastarmen Motiven, in der kein eindeutiges Ziel erfasst wird und der Fokus dann pumpt. Dann ist voll manuelle Scharfeinstellung überlegen. Ich wünsche mir den DMF (oder was Vergleichbares), den es ja im Fotomodus gibt, für Video. Ich würde es Lens Priority Focus nennen. Ich drücke zum Beispiel einen Custom-Button, der LPF "scharf" macht. Dann verstelle ich den Fokus am Objektiv, und der AF beginnt meinen Fokus zu tracken. Oder so.

Shutter Angle? Naja, ich hab mich schon an das Fehlen gewöhnt.

Space


Antwort von Mediamind:

Neben Waveform vermisse ich den Wechsel zwischen Person A zur Person B mit Eye-AF. Bei Nikon ist das (allerdings bei der Z6 ohne Eye-AF) schön gelöst, die Kamera erkennt eine weitere Person und zeigt vom aktuellen Focuspunkt mit einem Pfeil in diese Richtung und mann kann schnell dahin wechseln. Sozusagen "durchzappen"...
Wenn wir beim Wünschen sind: Custom Luts für den Sucher wären nett. Dann könnte man einen Falsecolor Lut installieren....
An Axel: die Firmwareinstallation ist sehr schlecht gelöst, am Windows Rechner ging es bei mir auch nicht. Ich habe insgesamt eine knappe Stunde gemurkst, Kabel gewechselt und mich aufgeregt.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Wenn wir beim Wünschen sind: Custom Luts für den Sucher wären nett. Dann könnte man einen Falsecolor Lut installieren....
Und/ oder Falsecolor und Waveform durch Benutzertasten toggeln. Bzw. sogar durchtoggeln.

Space


Antwort von rush:

Axel hat geschrieben:
Was wären eure Top-Punkte auf der Wunschliste?

Ich unterstütze gerne den Auto-Switch in jeder Monitor-Position und auch die Option, Monitor und EVF gleichzeitig an zu haben (und schwupps! - geht der Akku alle).
Ja das würde ich ebenfalls begrüßen beides parallel aktiv zu haben - Akkuverbrauch hin oder her... Das müsste doch möglich sein und wäre in vielen Situationen durchaus praktisch.

Und variablen Shutter bis in den Nachkommabereich um bei den Wünschen zu bleiben...

Space


Antwort von Axel:

@rush
@Mediamind
Das sind schöne Wünsche, aber wird wohl eher nicht kommen. S-Cinetone passte, diese o.g. Dinge nachzuliefern wäre Sony-untypisch.

Sah eine weitere Review zum Smallrig-Cage 3065:


Geständnis: ich war so unvernünftig und hab ihn gekauft, für 109 € von smallrig.de. Teltec und Konsorten listen ihn für 141 €, und das war, was ich letztlich löhnte. Zwar kam er zwei Tage später mit FedEx, aber nochmals eine Woche später kam eine Rechnung vom Zoll über 32 €.

Ich bereue es trotzdem nicht. Er fühlt sich wesentlich besser an als der alte, schwerere (Scott verwechselt bei Minute 3 die Gewichte, 204 Gramm ist der alte, 130 Gramm der neue). Kein eloxiertes Aluminium, sondern Magnesium, wie der Kamerabody. Ich finde den Griff auch schöner als meinen (der aber nur 29 € teuer war). Hoffentlich kann ich den noch einzeln nachkaufen.

Die Sonnenblende ist angeblich erst in 5 Wochen lieferbar.

Space


Antwort von Chris12:

Bin mit meiner A7S III eigentlich recht zufrieden.

Was mich bisher aber am meisten stört:

Im Movie-Modus kann man den Tracking-Autofocus offenbar nur per Touch aktivieren. Ziemlich nervig, wenn man dicke Finger hat.

Im Foto-Modus kann man das Tracking ja auch über den Auslöser oder Af-On aktivieren, was ich viel besser finde?

Gibt es da einen Workaround?

Space


Antwort von Axel:

Ging das nicht auch über den Joystick?

Es ist wohl auch eine Frage der Einsatz-Art. Es gibt viele Situationen, in denen manueller Fokus besser ist. Er ist es aber kurz gesagt nicht, wenn man nur dieses 480p-Display benutzt. Das reicht nicht für kritischen Fokus, der 2k-EVF dagegen schon. MF ist besser mit jeder P4k oder P6k wegen des 1080p Monitors.

Mit einem externen Monitor/Smartphone/iPad sieht die Sache wiederum anders aus, sowohl was Auflösung angeht als auch Touch-Präzision bei dicken Fingern. Wenn die Kamera in einem Rig sitzt oder auf dem Stativ ist es anders als auf einem Gimbal oder Reporter-Style von Hand. Ich war immer eine One-Man-Band, und ich möchte Automatiken nutzen, wenn sie es besser machen.

Center Fix oder Flexible Spot (der geht alternativ über Joystick zu platzieren) sind in vielen Situationen bessere Fokuszonen als Wide. Zusätzlich gibt es Focus Hold und AF-MF Toggle sowie Face/Eye Priority ON/OFF. Das jeweils situationsgerecht wählen zu können ist die Leistung eines OMB-A7siii-Operators. Manuelles Fokussieren ist weniger komplex.

Space


Antwort von Chris12:

… geht leider nicht über den Joystick.

Space


Antwort von Mediamind:

Info zum XLR-Adapter und der A7s3 in Verbindung mit TC Generatoren von Tentacle: Leider geht die Synchronisierung über Tentacle Studio nicht, wenn vier Spuren im Audio ausgewählt sind. Somit kann man den Tentacle nicht am 3,5 mm klinken Anschluss zusätzlich zu den XLReingängen verwenden.

Space


Antwort von pillepalle:

@ Mediamind

Hattest Du das auch mal in Resolve ausprobiert, oder nur in der Tentacle App für den Mac? Ich meine mich erinnern zu können, das Resolve das auch kann. Ich weiß nur nicht ob das auch mit 4 Spuren klappt. Ich selber nutze ja den Atomos Recorder und da wird der Timecode direkt als Metadaten in die Datei geschrieben. Es braucht also keine App um den Auiotimecode zu übersetzen. So hat man zusätzlich noch alle vier Audiospuren zur Verfügung.

VG

Space


Antwort von Mediamind:

Der Adapter ist leider noch im Rückstand. Ich erwarte ihn in der nächsten Zeit. Ich hatte im Vorfeld bei Tentacle angefragt, damit ich die Verwendbarkeit schon einmal geklärt habe. Man arbeitet bei Tentacle jedenfalls an dem Thema.Ich hab ja für Panasonic ebenfalls einen vergleichbaren Adapter, der allerdings nur zwei Spuren kann. Auch hier blockiere ich mir einen XLR Eingang mit dem Tankdeckel. Damit kann ich schon einmal das sehr gute Video Mic X nicht gescheit nutzen. Ich werde einmal versuchen, wenn der Adapter geliefert wurde, ob Resolve damit klarkommt. Viele Grüße

Space


Antwort von Mediamind:

Gestern kam das Sigma Art 40 mm f:1.4.
Der AF ist leicht hörbar und deutlich träger im Vergleich zu meinen anderen Art Linsen. Ich werde einmal versuchen, die GEschwindigket des AF anzupassen, mal schauen, ob das dem Objektiv Beine macht.

Space


Antwort von rush:

Viel Glas das bewegt werden will, vermutlich ähnlich träge wie das monströse 35er 1.2 von Sigma - würde mir da wenig Hoffnung auf einen potenten AF machen, daraufhin wurden die Teile nicht optimiert.

Was mich aktuell immer mehr an der A7SIII nervt ist der Kopfhörerausgang in Kombination mit dem Klapp-Display. Da kommen kleine Kameras dann offenbar an ihre Grenzen weil beides gescheit nutzen kann man nicht.

Space


Antwort von Jörg:

Was mich aktuell immer mehr an der A7SIII nervt ist der Kopfhörerausgang in Kombination mit dem Klapp-Display. Dieser Horror trifft nicht nur den Sonyfilmer.
Fujis X-T4 kann das ebenso nervig...

Space


Antwort von Axel:

Stimmt, ich nutzte früher immer Kopfhörer, weil ich gerne "drin" bin im Video bei der Aufnahme - daher auch meine EVF-Liebe. Und deswegen auch nicht sooo schlimm, dass der Ausgang den Monitor behindert.

A propos Audio. Benutzt jemand von euch das beliebte, obwohl billige Røde Video MicRo? Damit muss ich bei der A7Siii den Pegel im Vergleich zur A6500 praktisch halbieren. Aber ich finde den Bord-Ton der A7Siii schon so gut, dass ich das gar nicht mehr draufmache. Ich überlege gerade, mir diese Dinger zu bestellen:

zum Bild

Hat die schonmal jemand probiert?

@Mediamind: dieses ganze Thema Tentacle Synch in Verbindung mit einem 32-bit-Recorder oder den Track-Minirecordern ist endlos faszinierend. Irgendwann ...

Space


Antwort von Mediamind:

Die Tentacles taten erst einmal im Geldbeutel weh. Nun kann ich mir nicht mehr vorstellen, ohne sie zu arbeiten. Mit mehr als einer Kamera im Spiel oder einem externen Recorder ist das alles sehr entspannt geworden. Mit Pluraleyes hatte ich zu viel Ausschuss, der sich nicht über die Tonspur synchronisieren ließ.
Update zum Sigma Art 40 mm f:1.4:
Mit erhöhtem AF Tempo kommt man gut klar. Das Talent wird sauber scharf gestellt. Kurz vor der Naheinstellgrenze kommt die Optik ggf. bei Offenblende in Schwierigkeiten, wenn sich die Person zügig auf die Kamera zubewegt. Dazu müsste ich aber noch ein paar mehr Tests durchführen.
Ansonsten ist das eine tolle Kombination mit genau dem "Look", den ich mir noch gewünscht hatte.

Space


Antwort von Axel:



Ich schätze, wenn er es durch Resolves Superscale-Filter hätte laufen und zu UHD aufblasen lassen, wäre es noch einen Tick besser geworden. Zu meiner Schande muss ich gestehen, dass ich noch nicht viel 200B/s HD-Tests gemacht habe, also genau weiß ich's nicht. Hab irgendwo ein Video gebookmarkt, in dem einer sagt, sieht mehr aus wie 720p, also wahrscheinlich wie 50 B/s bei meiner A6500, was ich nie mochte. Sehr sehenswert ist das BTS-Video, nicht zuletzt für Besitzer des Ronin RS2. Aber auch für Besitzer irgend eines Gimbals und irgend eines (stabilen) Einbeinstativs:


Das habe ich probiert (wenn auch nicht auf einer Leiter), und es ist irgendwo zwischen Fake-Jib und Fake Arri-Trinity. Lohnt sich auf jeden Fall und ist super einfach.

Space


Antwort von Darth Schneider:

Coole Idee, aber ich denke da fehlt ganz sicher eine Person die die Leiter hält. Sonst gibt es vermeidbare Diskussionen mit den Versicherungen wenn er runter fallen sollte.;)
Aber das muss er selber wissen.
Gruss Boris

Space


Antwort von Mediamind:

Tolle Umsetzung! Mit Force Mobile konnte ich bis Dato nicht viel anfangen, dieser Ansatz mit einem Fluidhead löst viele Probleme des Konzepts.
Nebenbei: Ich habe zu Testzwecken mein neues Spielzeug (DJI Pocket 2) gestern einen Fitnessworkout in Verbindung mit einem Manfrotto Monopod und dem neuen Sigma 40 mm an der A7SIII gefilmt. War nur Fun, nichts wichtiges. Ich hatte mit Active Track an der Pocket leider Probleme, die Kamera vernünftig automatisch auszurichten. Das Sollte ich noch einmal mit meinem 2. Operator an einem Fluidhead, dem Ronin und defr A7SIII wiederholen. Die Idee ist brilliant.

Space


Antwort von Axel:

"Darth Schneider" hat geschrieben:
Coole Idee, aber ich denke da fehlt ganz sicher eine Person die die Leiter hält.
Bei mir würde die Leiter zittern. Da würde kein Gimbal, kein IBIS und kein Gyro mehr helfen ...
Mediamind hat geschrieben:
Tolle Umsetzung! Mit Force Mobile konnte ich bis Dato nicht viel anfangen, dieser Ansatz mit einem Fluidhead löst viele Probleme des Konzepts.
Motiviert auch mich, mich mit Force Mobile, das ich hier öfter ein doofes Gimmick nannte, näher zu befassen. Zum Glück war ich bis jetzt zu faul, den ungeliebten Ronin SC zu verkaufen. Mit den kleineren Objektiven tut der's auch.
Mediamind hat geschrieben:
Nebenbei: Ich habe zu Testzwecken mein neues Spielzeug (DJI Pocket 2) gestern einen Fitnessworkout in Verbindung mit einem Manfrotto Monopod und dem neuen Sigma 40 mm an der A7SIII gefilmt. War nur Fun, nichts wichtiges. Ich hatte mit Active Track an der Pocket leider Probleme, die Kamera vernünftig automatisch auszurichten. Das Sollte ich noch einmal mit meinem 2. Operator an einem Fluidhead, dem Ronin und defr A7SIII wiederholen. Die Idee ist brilliant.
EDIT: Active Track auf einer DJI Pocket? Da habe ich vorher was missverstanden. Kannst du das kurz erklären?

Active Track (d.h. der Gimbal folgt den Bewegungen des Motivs, das man zuvor auf dem Smartphone-Schirm als Trackingziel markiert hat) war die nächste Funktion, über die ich spottete. Obwohl es mir seinerzeit gelungen war, Balancierbarkeit und Genauigkeit zu verbessern durch Verwendung einer alternativen Blitzschuh-Befestigung für das iPhone. Der original DJI Smartphone-Halter lässt das Telefon 50 mm über der Kamera schweben und damit knapp 11 Zerntimeter (!) über der optischen Achse der A7Siii. Der Parallaxenfehler war einfach für kurze und mittlere Entfernungen zu groß. Der billige ("Wolffilm")-Smartphonehalter, den ich bestellte, verkürzte den Abstand um 40 mm.

Auf weitere Einschätzungen zum 40 mm Sigma wäre ich gespannt.

Space


Antwort von Mediamind:

Hallo Axel, bei der Pocket 2 ist Active Track 3.0 integriert. Du kannst durch double Tapp an der Pocket oder durch ziehen eines Rahmens Active Track aktivieren. Meine erste Einschätzung ist, Active Track mit dem iPhone besser funktioniert als nur über die Kamera selbst. Mein Problem war, dass die Pocket 2 am voll ausgefahrenen Monopod immer wieder das Motiv verlor und ich das aus der Entfernung nicht mitbekomme. Wenn man die Pocket in der Hand hält ist das natürlich deutlich einfacher zu handhaben.
Zum Sigma 40 mm an der A7SIII: Heute packe ich die Kombination an den Ronin und werde es mit dem Monopod kombiniert noch einmal probieren. Vielleicht werden die Ergebnisse besser. Mein Modell will heute erneut trainieren :-)
Insgesamt liegt das schwere Biest satt in der Hand und man kann recht ruhig aus der Hand arbeiten. Optisch brauche ich hierzu nichts sagen, an einem 12 MP Sensor ist das von der Auflösung der Overkill. Für einen natürlichen Bildeindruck sind 40 mm an FF eine gute Wahl, offenblendig bekomme ich meine gewünschte Separation von Vorder- und Hintergrund. Mit einem Strich über der Mitte habe ich beim AF Tempo einen guten Wert. Wenn man auf Stuge 7 geht, ist mir der Focuswechsel zu laut und ruckartig. Ansonsten ist die Lautstärke des Objektives zischen den leiseten (24-70 mm und 85 mm DGDN) und dem eher lauten 105er f:1.4 angesiedelt. Absolut akzeptabel fürs Arbeiten in Verbindung mit Ton, wenn man getrennt aufnimmt. Wenn der XLR Adapter für die A7SIII endlich kommt, bin ich gespannt ob ich das Fokussieren auf der Tonspur habe oder nicht.

Space


Antwort von omega1978:

Hallo,
hat jemand Erfahrung mit Drittanbieter Batterien bezüglich Laufzeit und Batterie Restanzeige(Lese immer wieder das welche mit 20% den Dienst quittieren) oder sollte man bei den originalen bleiben, die ja echte 16 Wh haben und nicht max. 12 Wh
https://techtest.org/8x-np-fz100-akkus- ... l-greifen/

Lg
Christian

Space


Antwort von Abercrombie:

Sehe ich das eigentlich richtig, dass ein Record Indikator (roten Punkt/Rahmen) nur über HDMI ausgegeben werden kann, wenn "HDMI Info. Display" auf an ist und dann gibt es das Bild nur noch als Briefmarke, weil der ganze 4:3-Screen auf den HDMI geroutet wird? Das können andere Kameras aber besser. Wie macht ihr das mit ner Schulterstütze? Immer den Kopf verdrehen?

Space


Antwort von Axel711:

Ich häng die Frage mal direkt hier mit dran obwohl ich recht sicher bin daß es nur ein menschlicher Bug ist:

ich hab - egal bei welchem Format (jpg extra fein, heif 4:2:2 und raw) Banding. Schlicht gefragt: WARUM?

Keine Ahnung wie ich hier ein raw anhängen kann, hab mal noch nen screenshot von den Einstellungen im Sony Viewer dabei.

Danke für konstruktive Tipps und Hilfestellungen
A7S00223.JPG screenshot_settings.png

Space


Antwort von pillepalle:

Das ist jetzt nur eine Vermutung von mir, aber es könnte sein, dass die Tonwert-Abstufungen in den Schatten nicht fein genug für einen so feinen Verlauf sind. Oder anders gesagt, würdest Du den Verlauf/Himmel heller fotografieren (und nachträglich wieder dunkler machen) wäre es möglich das auch das Banding verschwindet. Mir fallen auch die weißen Punkte, die wie Deadpixel aussehen, auf...

VG

Space


Antwort von Mediamind:

Abercrombie hat geschrieben:
Sehe ich das eigentlich richtig, dass ein Record Indikator (roten Punkt/Rahmen) nur über HDMI ausgegeben werden kann, wenn "HDMI Info. Display" auf an ist und dann gibt es das Bild nur noch als Briefmarke, weil der ganze 4:3-Screen auf den HDMI geroutet wird? Das können andere Kameras aber besser. Wie macht ihr das mit ner Schulterstütze? Immer den Kopf verdrehen?
Ich verwende den Ninja V. Wenn ich das info Display ausgebe, wird das Bild so übertragen wie ich es im Sucher sehe. Bei Record gibt es auch den roten Rahmen und zusätzlich einen roten Rahmen vom Ninja. Doppelt hält besser. Das Bild ist nicht ganz vormatfüllend, es bleibt ein Rand oben und unten. Das ist aber wet entfernt von Mäusekino. Ich würde aber nur zu Demonstrationszwecken überhaupt über das Aufnehmen des Info Displays nachdenken.
Eine Schulterstütze verwende ich mit der A7SIII nicht. Die Bedienung gewinnt meiner persönlichen Einschätzung nach nicht. Die Kamera liegt gut in der Hand, auf der Schulter wird das nicht besser. Wenn schon eine Halterung, dann ist es bei mir ein Gimbal.
@Axel711: Bei den Aufnahmen kann ich das Problem nicht wirklich sehen. Hast Du Abrisse z.B, beim Sonnenuntergang und klarem Himmel? Ich habe das bei Video in 10 Bit nicht wahrnehmen können.

Space


Antwort von Mediamind:

pillepalle hat geschrieben:
Das ist jetzt nur eine Vermutung von mir, aber es könnte sein, dass die Abstufungen in den Schatten nicht fein genug für einen so feinen Verlauf sind. Oder anders gesagt, würdest Du den Verlauf/Himmel heller fotografieren (und nachträglich wieder dunkler machen) wäre es möglich das auch das Banding verschwindet. Mir fallen auch die weißen Punkte, die wie Deadpixel aussehen, auf...

VG
Die Deadpixel sind Sterne in der Dämmerung, vermute ich.

Space


Antwort von Axel711:

Jau sind tatsächlich Sterne. Das Bild war aus der Hand geschossen aber die Settings würde ich, in meinem Unverstand bei Stills, als passend werten. Bin schon recht verwirrt zur Vorstufe zu enttäuscht aber ich hoffe immer noch das ich das schwächste feature der Cam bin...

Bei Tageslicht-Aufnhamen hab ich das nicht. Bei kurzen Video Tests in slog3 hab ich auch keinerlei Probleme. Nur bei Stills.

Kann das bei 3 sek exposure schon am elektronischen Shutter liegen? Werds heut abend nochmal mit dem mechanischen versuchen.

Space


Antwort von pillepalle:

Ich kann mich auch nicht erinnern das jemals so deutlich gehabt zu haben. Kameraeinstellungen richtig gewählt? 14bit Adobe RGB? Bei 10bit und sRGB hasst Du garantiert eher Banding.

VG

Space


Antwort von Axel711:

Hm, wenn ich raw+heif Format wähle entfällt der Menüpunkt Adobe RGB da heif ja 4:2:2 macht. Wenn ich raw+jpg mache kann ich A-RGB wählen. Werd ich heut Abend mal versuchen. Dachte die Raw sind so oder so 14bit!?

Space


Antwort von pillepalle:

Ich habe keine Sony, aber bei Nikon kann ich 12bit oder 14bit RAW Files aufnehmen. Schau einfach daß Du die größtmögliche Dynamik und Farbraum hast. Ich würde für sowas auch kein 4:2:2 nehmen. An Deinem Monitor oder dem Arbeitsfarbraum Deiner Software liegt es hoffentlich nicht.

VG

Space


Antwort von Mediamind:

Zunächst hast Du Dir gleich ein anspruchsvolles Thema vorgenommen. Fotografie im Dämmerungsbereich ist nicht ohne. Ich würde einmal damit beginnen, die Kamera nicht aus der Hand zu nutzen, verwende zunächst mal ein Stativ. Dann Base ISO für das jeweilige Profil und dann Blende und Belichtung den Gegebenheiten entsprechend anpassen. Automatik kann gerne einmal komische Resultate erzielen. Und dann beurteile die Bilder noch einmal. Ein verwackeltes Bild ist nicht wirklich geeignet, das Potential einer Kamera zu beurteilen.
Schau ggf. mal hier:

https://www.youtube.com/watch?v=kMbUGup9Y4w

Space


Antwort von Axel711:

Haste Recht, ich hab die mehr oder weniger aus der Verpackung aus dem Balkonfenster gehalten, aber Banding sollte so oder so keins auftreten.
Ich hab das mal gecheckt - die Raw Bilder haben tatsächlich 'nur' sRGB Farbraum wenn ich im Menü raw+heif wähle. Das kann man auch nicht ändern da in der Kombination Menüpunkt AdobeRGB ausgegraut ist. Ich hab mal eben ein Bild mit der Einstellung raw+jepg und AdobeRGB gemach - in den Metadaten ist jetzt auch beim raw AdobeRGB angegeben. Ob das des Rätsels Lösung ist wer ich heut Abend im Mondschein vom Stativ runter erfahren. Warum raw in Verbindung mit heif nur um sRGB geht würde mir nicht einläuchten, aber wie gesagt, heut Abend weiß ich mehr.

Ich werde berichten.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Ich würde einmal damit beginnen, die Kamera nicht aus der Hand zu nutzen ...
... aber wenn doch mal, dann gibt es sehr schöne Rig-Optionen. Dieser Nutzer hat genau mein Top-Handle, nur als Blitzschuh-Version, während ich eine 1/4" + Arrri-Positionsstifte - Befestigung habe:


Ich kann bestätigen, dass mit Active Steady Shot und der im Video gezeigten Art, das Ganze zu halten, kein Wackeln oder Zittern vorkommt. Er hat den Bügel mal nach vorne und mal nach hinten zeigen. Gute Balance hat man aber nur, wenn der Griff nach vorne zeigt wie hier:

zum Bild


Das ist optimal, wenn man den ausgeklappten Monitor nutzt, wie bei der FX3. Deren Sony Produktvideos brachten mich auch zum Kauf. Bevor jemand nun den Griff bestellt - es ist dieser - , gebe ich zwei Dinge zu bedenken.

Erstens handelt es sich bei dem Blitzschuh nicht nur um einen Hotshoe, sondern um einen Port für das digitale Mic bzw. den großen XLR-Adapter. Auch wenn ich nie vorhätte, eins von beidem zu benutzen, würde ich mich dennoch nicht wohlfühlen dabei, diese Stelle als stark belasteten Befestigungspunkt zu verwenden.

Aus diesem und anderen Gründen habe ich ja ein Cage.

Zweitens habe ich ja nicht die FX3, sondern die A7Siii, und ich nutze den EVF tatsächlich. Für das Durchgucken durch den Sucher ist das Tophandle im Weg. Mit dem Cage kann ich es rechts montieren, aber auch dort ist es nach längerer Nutzungserfahrung eher hinderlich. Grund ist, dass ich mit rechts (wo es einen guten Griff gibt, der durch ein Cage eher noch griffiger wird) sowohl auslöse als auch diverse C-Tasten bediene. Die linke Hand unter dem Objektiv ist eine bewährte und sehr sinnvolle Abstütz-Methode.

Was aber noch besser ist, ist ein im Winkel verstellbarer kurzer Griff links unten am Gehäuse. Habe ich mit einem langen Käsestangengriff von smallrig gerade so verwirklicht. Super stabil. Bei Super-Weitwinkel (15mm Laowa, aber bestimmt auch schon bei 20mm) ragt das Griffende in's Bild, weswegen ich morgen mal eine Metallsägearbeit vornehmen wollte. Danach werde ich mal Bilder posten.

Space


Antwort von shellbeach:

Hallo,

wollte mal nachfragen, ob es möglich ist, die Videodateien (die auf der SD Karte liegen) auf eine externe SSD per USB Anschluss direkt von der Kamera zu übertragen? Es geht mir nicht um die direkte Aufzeichnung auf die SSD,

Soweit ich rausbekommen habe, ist das mit den Sony SL-E SSD's möglich. Die sind jedoch teuer und nicht die schnellsten. Könnte so etwas auch mit Samsung T7 oder Sandisk Extrem Pro SSD klappen?

Space


Antwort von TomStg:

Axel711 hat geschrieben:
Hm, wenn ich raw+heif Format wähle entfällt der Menüpunkt Adobe RGB da heif ja 4:2:2 macht. Wenn ich raw+jpg mache kann ich A-RGB wählen. Werd ich heut Abend mal versuchen. Dachte die Raw sind so oder so 14bit!?
Stell mal im Foto-Modus im Menü Aufnahme -> Bildqualität-> Dateiformat mal ausschließlich „RAW“ und darunter bei RAW-Dateityp „nicht komprimiert“ ein. Damit sollte es absolut kein Banding geben.

Space


Antwort von Axel711:


Stell mal im Foto-Modus im Menü Aufnahme -> Bildqualität-> Dateiformat mal ausschließlich „RAW“ und darunter bei RAW-Dateityp „nicht komprimiert“ ein. Damit sollte es absolut kein Banding geben.


'Nicht komprimiert' hab ich schon, ausschließlich raw versuch ich mal. Konnte gestern ob des Monsuns hier draussen nicht knipsen... Versuchs mal indoor nachzustellen...

Space


Antwort von TomStg:

Was benutzt Du für die RAW-Entwicklung?
Entweder Photoshop/Lightroom oder Capture One für Sony.

Falls Du dann immer noch Banding siehst, liegt es nicht an der Kamera, sondern an der Verarbeitung. Dazu frage lieber nicht hier, sondern in einem Foto-Forum nach.

Space


Antwort von Axel711:

der Screenshot und das angehängte Bild sind direkt aus dem Sony Imaging App Viewer. Nativ sozusagen

Space


Antwort von TomStg:

Wie man mit RAW-Fotos arbeitet, weißt Du aber, oder?

Space


Antwort von Axel:

Axel711 hat geschrieben:
der Screenshot und das angehängte Bild sind direkt aus dem Sony Imaging App Viewer. Nativ sozusagen
Da würde ich die Ursache vermuten. Bei mir (MacOS 11) geht zwar die Imaging Edge Desktop nicht, aber Sonys eigener Catalyst Browse für Video (darin auch die im Thread oft erwähnte Gyro-Stabilisierung). Und da auch: Tonnen echt guter Metadaten, aber schlechte Video-Vorschauqualität. ...

Space


Antwort von Axel711:

Nee, das liegt nicht an den Programmen. Das kommt recht sicher so aus der Knipse. Edius Mync, RawTherapee, Darktable, Sony Viewer, Photoshop, etc überall das Gleiche.

Ich schaffs zeitlich grad nicht aber ich werd asap mal mit den Einstellungen systematisch auf Fehlersuche gehen und dann berichten.

Space


Antwort von cantsin:

Axel711 hat geschrieben:
Nee, das liegt nicht an den Programmen. Das kommt recht sicher so aus der Knipse. Edius Mync, RawTherapee, Darktable, Sony Viewer, Photoshop, etc überall das Gleiche.
Du kannst Deine Raw-Datei hier im Forum als Dateianhang posten, wenn Du sie in eine Zip-Datei verpackst. Wäre interessant, sich das mal anzusehen...

Space


Antwort von klusterdegenerierung:

omega1978 hat geschrieben:
Hallo,
hat jemand Erfahrung mit Drittanbieter Batterien bezüglich Laufzeit und Batterie Restanzeige(Lese immer wieder das welche mit 20% den Dienst quittieren) oder sollte man bei den originalen bleiben, die ja echte 16 Wh haben und nicht max. 12 Wh
https://techtest.org/8x-np-fz100-akkus- ... l-greifen/

Lg
Christian
Baxxtar & Blumax
Patona hatte bei mir keine lange Lebensdauer und schnellen Powerverlust.

Die roten Baxxtar waren bislang die besten überhaupt.
Für die FX6 habe ich mir auch Baxxtar gekauft, top!

Space


Antwort von omega1978:

klusterdegenerierung hat geschrieben:
omega1978 hat geschrieben:
Hallo,
hat jemand Erfahrung mit Drittanbieter Batterien bezüglich Laufzeit und Batterie Restanzeige(Lese immer wieder das welche mit 20% den Dienst quittieren) oder sollte man bei den originalen bleiben, die ja echte 16 Wh haben und nicht max. 12 Wh
https://techtest.org/8x-np-fz100-akkus- ... l-greifen/

Lg
Christian
Baxxtar & Blumax
Patona hatte bei mir keine lange Lebensdauer und schnellen Powerverlust.

Die roten Baxxtar waren bislang die besten überhaupt.
Für die FX6 habe ich mir auch Baxxtar gekauft, top!
Danke !
Habe mir Newmova bestellt, die in etwa die 2 Stunden Aufnahmezeit erreichen sollen und auch die Meldung der nicht originalen Batterien nicht anzeigt.
https://www.youtube.com/watch?v=WhuNddhABDw
Werde dann berichten...

Lg
Christian

Space


Antwort von TomStg:

omega1978 hat geschrieben:
Werde dann berichten...
Lieber nicht. Denn dieses elende Akku-Thema kommt hier alle 3-4 Wochen.

Bleib beim Original-Akku. Falls Dir bei einer Kamera von rund 4.000 Euro 30 Euro mehr zu viel sind, hast Du die falsche Kamera gewählt.

Space


Antwort von klusterdegenerierung:

TomStg hat geschrieben:
omega1978 hat geschrieben:
Werde dann berichten...
Lieber nicht.


Space


Antwort von Axel:

TomStg hat geschrieben:
omega1978 hat geschrieben:
Werde dann berichten...
Lieber nicht. Denn dieses elende Akku-Thema kommt hier alle 3-4 Wochen.

Bleib beim Original-Akku. Falls Dir bei einer Kamera von rund 4.000 Euro 30 Euro mehr zu viel sind, hast Du die falsche Kamera gewählt.
Habt ihr schonmal eine Powerbank am USB-C-Eingang probiert? Ich habe eine Intenso S10000 in einer Smartphone-Gürteltasche.

zum Bild

Nach laaanger Zeit rutscht die Akkuanzeige von 100% auf 95%. Ich hätte diese Lösung nicht angeschafft, wenn ich sie nicht für die A6500 und deren Dummy-Akku schon gehabt hätte.

Momentan habe ich zwei Sony-Akkus. Für eine Hochzeit hätte ich mir wahrscheinlich einen dritten geholt.

Space


Antwort von Axel:

Axel hat geschrieben:
Was aber noch besser ist, ist ein im Winkel verstellbarer kurzer Griff links unten am Gehäuse. Habe ich mit einem langen Käsestangengriff von smallrig gerade so verwirklicht. Super stabil. Bei Super-Weitwinkel (15mm Laowa, aber bestimmt auch schon bei 20mm) ragt das Griffende in's Bild, weswegen ich morgen mal eine Metallsägearbeit vornehmen wollte. Danach werde ich mal Bilder posten.
Es ist ein bisschen mehr/aufwändiger geworden als eine kurze Metallsägearbeit. Weil die Alu-Käsestange zu unbequem zu halten war, kürzte ich sie auf 8 cm und polsterte sie mit Moosgummi. Danach war sie zwar weich, fühlte sich aber auch glitschig und unsicher an - nicht geeignet für eine doch gewichtige Kamera/Objektiv-Kombi.

Ich erinnerte mich meines geliebten Super-8-Fahrradgriffs für die Panasonic GH2, kurz und griffig, dickes Vollgummi. Ich bestellte ihn nach, füllte ihn mit Heißkleber und drückte ihn dann schnell über die abgesägte Käsestange:

zum Bild


Der Griff ist 9 cm lang, und man kann ihn ermüdungsfrei mit aller Kraft packen. Ich sollte besser sagen: ich kann es. Es ist mir ein Rätsel, wieso es das so nicht fertig zu kaufen gibt. Die Walnuss-Holzgriffe mit Arri-Rosette, die smallrig, Tilta und andere im Sortiment haben, hatte ich mal probiert. War nichts für mich. Hiermit komme ich super klar, ich bin richtig happy.

Es ersetzt für mich tatsächlich auch den/das Tophandle. Ich kann auch mit ausgeklapptem Monitor die Kamera sehr sicher mit beiden Händen halten, d.h. ohne den EVF zu nutzen. Aber mit dem EVF kann ich 200mm problemlos aus der Hand führen.

zum Bild


Die Arri-Rosette ist wichtig, um erstens den Griff schnell ab- und anschrauben zu können. Zweitens ist der Winkel wichtig, um nicht unwillkürlich den Horizont zu kippen. Ich habe verschiedene Winkel unter Beobachtung der Display-Wasserwaage ausprobiert. In einer bestimmten Position ist mein linkes Handgelenk wohl so wenig gestresst, dass ich ganz spontan die Waage halte.

Space


Antwort von Jörg:

Es ist mir ein Rätsel, wieso es das so nicht fertig zu kaufen gibt. Ich habe genau solch Griff wie du, smallrig, ARRI aber bereits mit sehr griffigem Gummi.
Ohne basteln.
Ich komme aber auch mit dem ebenfalls vorhandenen dicken Holzgriff prima klar.
DSCF4266 resize.jpg

Space


Antwort von Mediamind:

Den Holzfriff habe ich auch, alledings für die linke Seite. Das ist ein echter Handschneichler und kommt mit Arrilock daher. Würde ich dem Basteln vorziehen.

Space


Antwort von Axel:

Okay, es war die A7Siii, aber es ist auch OT, weil es eigentlich um Topaz geht, nicht den Hitchcock-Flop, sondern den K.I.-Upscaler, hier der slashCAM-Artikel. Bloom ging es um die Schönheit, und ich bin, wie immer, angefixt von Teleshots:

Muss mal versuchen, mit meinem 70-200G Halsbandsittiche (taubengroße grüne Papageien, Neozoen hier in Düsseldorf) einzufangen und upzuscalen. Die Demoversion von Topaz Labs lädt gerade, aber ich werde parallel auch Resolve Studios Superscale zum Vergleich antreten lassen.

Space


Antwort von Mediamind:

Ich habe bei der A7SIII in Verbindung mit dem OSS des 24-105 f:4 von Sony die Besonderheit, dass es mehrere Sekunden nach Aufnahmestart dauert, bis der Stabi wirksam wird. habt Ihr ähnliche Erfahrungen? Mit dem 70-200 f:4 habe ich das Problem nicht. Ich bin durch den SC Bericht über das Update der A1 aufmerksam geworden, dass dies kein normales Verhalten ist.

Space


Antwort von Axel:

Immer wieder mal gut, um die Sinnhaftigkeit der eigenen Benutzer-Tasten zu evaluieren:


Immer wieder mal gut, um zu sehen, was andere sich so zurechtriggen:


Space


Antwort von rush:

Pfff wozu kauft man sich eine A7SIII wenn man die Kamera so verbastelt das man den hervorragenden EVF gar nicht mehr nutzen kann und sich stattdessen eine HDMI Lösung dranfummelt?
In dem Fall wäre doch eine FX3 tatsächlich die bessere Wahl wenn Rigging im Vordergrund steht... Manchmal macht es Sinn sich vor einer Kameraanschaffung Gedanken über die spätere Nutzung zu machen.

Space


Antwort von klusterdegenerierung:

@Axel, das war das beste Scharfmacher Video was ich in den letzten Jahren gesehen habe! Spitze!
Will ich sofort so alles haben!

Ich meckere immer über die Flippiscreens, aber hier spielt das Teil ja seine Stärke so hart aus, das ich tatsächlich etwas entäuscht über meine A7III bin.
Aber vielleicht hol ich mir sowas tätsächlich mal für die A7III.

Aber der Dude hat sowieso immer schon die coolsten setups mit den besten Formfaktoren und features gehabt. :-)
Danke fürs teilen! :-)

Space


Antwort von Axel:

Josh von Make.Art.Now macht in Bezug auf PRAW vs. XAVC 10-bit (eine interessante Diskussion mit Gerald Undone) eine Aussage, die mir bestätigt, dass mein Verzicht auf Ninja V und den ganzen Rödel die für mich richtige Entscheidung war (Timestamp):
https://youtu.be/qp1VFFx47V0?t=595

Space


Antwort von klusterdegenerierung:

Mein Reden, aber warte, gleich kommt Frank mit: Speicher kostet doch nix mehr! ;-)))

Space


Antwort von Darth Schneider:

Also nix kosten tun sie nicht.
https://www.digitec.ch/de/s1/product/sa ... te-5920873
Und das ist nur eine einfache SD Karte, eine für meine Cam geeignete CFast Karte mit genug Platz darauf kostet fast halb so viel wie mein Kamerabody gekostet hat…
Gemessen an was man sonst alles an cooler Technik kriegt fürs selbe Geld, finde ich schneller Speicher für Kameras ist heute immer noch sehr, sehr teuer.;)
Gruss Boris

Space


Antwort von klusterdegenerierung:

"Darth Schneider" hat geschrieben:
Und das ist nur eine einfache SD Karte
:-)) Öh B o r i s, wir sprechen hier von Festplatten für die Raw Archivierung. :-)

Space


Antwort von pillepalle:

klusterdegenerierung hat geschrieben:
Mein Reden, aber warte, gleich kommt Frank mit: Speicher kostet doch nix mehr! ;-)))
So groß ist der Unterschied im Speicherbedarf zwischen 12bit ProRes RAW HQ und 10bit ProRes 422HQ aber nicht. Nach meinen Erfahrungen sind das bestenfalls 30% mehr. Auch Blackmagic RAW ist doch recht effizient was den Speicherbedarf betrifft. Konnte der Logik von Josh und Gerald in dem Video aber auch nicht ganz folgen, warum es z.B. schwieriger sein soll ein RAW Format richtig zu belichten. Wenn die Videos clippen sieht das auch in 10 bit nicht besser aus.

Aber klar, wenn man Kameraintern aufnimmt spart man natürlich mehr als 50% Speicherplatz zu den externen Aufnahmen, hat dann aber auch die Verschlimmbesserungen der Kamera mit eingebacken.

VG

Space


Antwort von Darth Schneider:

@Kluster
Wer denn, du ? Er da oben redet doch auch unter anderem vom Speicher in der Cam…
Entschuldige Herr Profi.
Ich habe mich halt auf Speicher in der Kamera bezogen, das braucht’s doch auch, oder ?
Mein Gott was hast du in letzter Zeit für eine unangenehme Art und Weise.
Ist ja nicht zum Aushalten, deine Antworten, so viel unnötige Arroganz, mir gegenüber.
Erst pfeifst du mich an weil ich dir einen BluRay Player gratis anbiete, und so weiter….
Gruss Boris

Space


Antwort von klusterdegenerierung:

"Darth Schneider" hat geschrieben:
@Kluster
Wer denn, du ? Er da oben redet doch auch unter anderem vom Speicher in der Cam…
Entschuldige Herr Profi.
Boris, was ist denn immer los bei Dir?
Liest Du denn überhautnicht was ich schreibe, bzw wen ich zitiere und was die Intension ist?

Also nochmal: "gleich kommt Frank mit: Speicher kostet doch nix mehr"
Also weder Du oder ich sind gemeint und auch nicht Dein Kameraspeicher oder SD Karten, oder kaufst Du Dir für jede Aufzeichnung eine neue SD Karte?

Eigentlich wäre ein Smiley und "ja das stimmt" angezeigt gewesen.

Space


Antwort von Darth Schneider:

OK, ;-) ja, das stimmt…
Natürlich lies und kapier ich ganz genau was du schreibst, ist ja auch nicht sonderlich schwer zum verstehen, wenn man herunter geputzt wird.
Was ansonsten deine Intension, wenn du jemanden zitierst weisst nur du.
Ist wahrscheinlich einfach ne harte Saison, aber nicht wegen dem schlechten Wetter, eher wegen einem neuen Mitarbeiter, meinem Stellvertreter, der glaubt alles besser zu wissen, sich im Bad benimmt wie ein Gefängnis Wärter und so meine Bade Aushilfen vertreibt, und dazu so stur ist wie ein Esel.
Das ist bei mir los, was bei dir los ist weiss ich nicht, aber du warst früher mal viel weniger bissig…
Gruss Boris

Space


Antwort von Axel:

Diese Methode ist gut, solange es sich nicht um Run & Gun handelt:


Man kann mit der Graukarte auch gleich den Weißabgleich machen mit AWB-Lock (die Dinger haben meist eine weiße Rückseite).

Schön erklärt mit den dunklen Bildern, die überbelichtet werden müssen.

Schön erklärt, dass in FCP die LUT nach der Korrektur kommen muss, nicht selbstverständlich für Leute, die keinen Node-Baum (was ja auch ein Flussdiagramm ist) sehen.

Dass er die Farbtafel benutzt, macht ihn für mich glaubwürdiger.

Space


Antwort von klusterdegenerierung:

Wozu das Spotmetering wenn wann die Karte näher an die Linsen bzw ranzoomen kann?
Was hat eine neutrale Behandlung exklusiv mit "Slog3" zu tun? Das macht man Grundsätzlich wenn man korrekt arbeitet bzw eine Lut benutzen möchte?

Auch das ganze Curve Kram mit Board geht doch alles auch ebenso über die Curve wie normal.
Ich werde das Gefühl nicht los, das sich hier jemand ein special Verfahren bastelt um es irgendwie besonders zu machen.

Alleine schon der Begriff HACK! Was soll denn da ein hack sein.
Wenn ich meine Autotür mit dem Schlüßel durch umdrehen aufmache statt mit der Fernbedienung dann ist das auch schon ein hack?
Für mich eher ein clickgenerator.

Space


Antwort von Axel:

Der “benutzerdefinierte Weißabgleich” ist sicher deshalb sehr genau, weil er einen kleinen Bereich aufpickt anstatt das ganze Bild. Das gilt für Belichtung sicher auch. Und Metering Mode kann man sich auf eine Taste legen.

Die Farbtafel ist das intuitivste CC-Tool, das es gibt. Es ist ausgefuchster als es zuerst den Anschein hat. In FCP nutze ich das und nicht Räder oder Kurven. Die sind in Resolve deutlich besser.

Space


Antwort von Mediamind:

Habe gerade die Mitteilung bekommen, das mit dem letzten FCPX Update auch das Handling der 4 Kanäle (2 mal XLR plus Klinke) nun möglich sein soll. Damit wäre das exotische Tonformat gebändigt und man könnte z.B. eine Funkstrecke oder einen Tentacle zusätzlich zu XLR eingeben.

Space


Antwort von Mediamind:

Hallo zusammen,
ich muss mit der A7SIII demnächst eine mehrstündige Veranstaltung aufnehmen. Ich habe den Batterigriff, will aber parallel per USB-C laden. Hat jemand Erfahrungen im mehrstündigen Dauerbetrieb und mag diese teilen? Dickes Netzteil (z.B. vom Macbook) oder eine Powerbank?

Space


Antwort von Axel:

Weiß nicht, wohin das posten. Sonys Catalyst-Browse - benötigt zur Gyro-Stabilisierung, falls man dieses Feature nutzen will - läuft praktisch nicht auf dem neuen M1 Mini. Sollte man wissen.

Space


Antwort von Axel:

Axel hat geschrieben:
Weiß nicht, wohin das posten. Sonys Catalyst-Browse - benötigt zur Gyro-Stabilisierung, falls man dieses Feature nutzen will - läuft praktisch nicht auf dem neuen M1 Mini. Sollte man wissen.
Hier die Antwort:
viewtopic.php?f=29&p=1107346#p1107346

Space


Antwort von eXp:

Kurze Frage, wenn man bei der A7SIII auf ein V90 aufnimmt, kann man die Dateien dann in der Kamera nachträglich auf eine V30 Karte kopieren ?

Space


Antwort von Mediamind:

eXp hat geschrieben:
Kurze Frage, wenn man bei der A7SIII auf ein V90 aufnimmt, kann man die Dateien dann in der Kamera nachträglich auf eine V30 Karte kopieren ?
Ja das geht. Was ist denn die Idee dahinter?

Space


Antwort von Axel:

Mediamind hat geschrieben:
Ja das geht.
Oh, das wusste ich nicht. Wie?
Ich hätte jetzt geantwortet, dass ich immerhin weiß, dass die Kingston Canvas React Plus 128 GB (ab 80 €) und die Kingston 256 GB (ab 180 €) als V90 funktionieren. Dann könnte man ja auch eine Tough 80 GB für 180 € kaufen und gelegentliche 50p in XAVC-I da drauf schwappen lassen.
Wie etlichen Testern vor mir ist es mir nicht gelungen, einen qualitativen Unterschied zwischen "S" und "I" zu sehen. Auf den ersten Blick sieht sogar "HS" vollkommen identisch aus, was wohl mit den lahmsten Karten ginge, allerdings nicht mit den lahmsten Rechnern.

Space


Antwort von Mediamind:

Hallo Axel, Du kannst den Karteninhalt über das Wiedergabemenü und dann "Bearbeiten" von einem Steckplatz zum anderen kopieren. Einzelne Clips lassen sich jedoch nicht selektieren, es geht immer nur das Aufnahmedatum. Macht aber meiner Meinung wenig Sinn. Ich will den identischen Inhalt auf beiden Karten bereits während der Aufnahme. Das unterläuft für mich den Vorteil von Dualrecording.

Space


Antwort von eXp:

Ok ich danke euch erstmal. Der Gedanke dahinter war, dass ich mir erstmal nur eine V90 Karte kaufe und die Daten dann wenn ich "Luft" habe auf eine V30 Karte kopiere (von denen ich jede Menge habe).
Ist zwar erstmal nur eine Notlösung aber wenn es funktioniert...

Space


Antwort von Mediamind:

Kannst Du natürlich machen. Der Kopiervorgang hält auf und Du hast keine Redundanz bei der Aufnahme. Das wäre es besser, Du nimmst auf V90 und V30 gemeinsam auf, wenn nur die V90 aufnehmen kann, hast Du nur diesen Clip auf nur einer Karte, ansonsten aber alles dual. Wäre mir sicherer.

Space


Antwort von rush:

Mediamind hat geschrieben:
Hallo Axel, Du kannst den Karteninhalt über das Wiedergabemenü und dann "Bearbeiten" von einem Steckplatz zum anderen kopieren. Einzelne Clips lassen sich jedoch nicht selektieren, es geht immer nur das Aufnahmedatum. Macht aber meiner Meinung wenig Sinn. Ich will den identischen Inhalt auf beiden Karten bereits während der Aufnahme. Das unterläuft für mich den Vorteil von Dualrecording.
Cool - war mir auch nicht klar das man innerhalb der Kamera umkopieren kann.

Kann schon sinnvoll sein wenn man doch nur auf einer Karte aufzeichnet - am Ende aber jemand das Material bereits sichten möchte - es aber gleichzeitig am besten in den Schnitt gehen soll und kein Laptop/Kartenleser in der Nähe ist.

Geht das vllt sogar mit Fremdmaterial?
Angenommen man bekommt Footage von einer Drohne - der Nutzer möchte seine Karte aber am liebsten gleich zurück. Dann könnte man ja - falls möglich - die Kamera als zweckentfremdete "Kopierstation" nutzen für solch einen Zweck. Gar nicht Mal vollends abwegig. Hat das Mal jemand ausprobiert? :-)

Space


Antwort von Axel:

@rush
Schon möglich. Bevor ich jetzt wieder behauptet hätte, dass das nicht geht, habe ich eine SanDisk Extreme V30 aus meiner A6500 mal in Slot 1 getan. Ich dachte, beim Wiedereinschalten sagt mir Sonya sofort, formatieren or else. Nix. Copy all images with this date to the memory card in Slot 2?
OK.
Und sie werden sogar abgespielt.

Aber ich schätze trotzdem, das Anwendungsbeispiel ist arg an den Haaren herbeigezogen.

Wenn man aber, wie in meinem und eXp's Beispiel, billigere Karten als kamerainternes Backup verwenden will, um ein paar traurige Kracher zu sparen, dann könnte man für die Aufnahme Prioritize Rec. Media auf eine Taste legen oder in's Funktionsmenu. Ebenfalls für die Wiedergabe, Select Playback Media.

Ich bin noch nie in die Verlegenheit gekommen, etwas Unwiederholbares, wie eine Hochzeit, aufzunehmen, seit ich die A7S3 habe. Wenn ich Parallelaufzeichnung gewählt habe, muss ich für FCP, wenn ich die Kamera direkt über USC-C angeschlosssen habe (was ich immer mache), erst eine der beiden Karten auswerfen. Lästig.

Hier für eXp ein paar Daten zu Kartenkapazitäten:
Auf 128 GB (wie gesagt als V90 ab 80 € zu haben) passen (alles 10-bit):
3h 25m in 4k XAVC-HS 50p (darunter gibt's in PAL leider nichts).
1h 54m in 4k XAVC-S 25p
1h 21m in 4k XAVC-S 50p
57m in 4k XAVC-S 100p
1h 6m in XAVC-I in 25p
33 m in XAVC-I in 50p

Für 100p in "I" reicht die V90 nicht mehr.

Mit V30 gehen 4k XAVC-S in 25 und 50. Wenn du sparen willst, dann benutz nur deine V30-Karten. 100p sind stark überschätzt, "I" wahrscheinlich auch.

Space


Antwort von MrMeeseeks:

Richtig interessant wäre es natürlich wenn man die Dateien von der Kamera über USB-C direkt auf eine externe Platte schieben könnte (Samsung T5)

Space


Antwort von Axel:

Ich wurde heute schon überrascht, was alles ging, deswegen habe ich eine T7 (neu, noch nicht formatiert) angeschlossen. Allerdings passierte nichts :-(

Space


Antwort von eXp:

@Axel

besten Dank für deine Infos !

Das ist für mich schon sehr praktisch wenn ich meine 6 128GB V30 Karten weiter nutzen könnte.

Space


Antwort von Mediamind:

...wenn Du bei einfachen Anforderungen bleibst, geht das natürlich. Ich habe Drehs, bei denen ich meine Sandisk Extreme Pro einfach durchlaufen lasse. Bei Talking Head Krams habe ich keine hohen Datenraten, die bei den Karten Probleme bereiten. Wenn es aber spontaner wird, will ich ohne Probleme auch in 120 fps im S&Q Modus arbeiten. Ich habe mir gerade 2 weitere V90 Karten für 79 Euro pro Stück zugelegt. Damit brauche ich mir keine Köpfe machen, wenn es mal eine Zeitlupe sein soll. Bei den Kosten der Kamera sollte man den SPeicher mit einkalkulieren. Die super teuren Sony-Karten braucht wahrscheinlich kein Mensch. Bei 6K, 8k,.. wird sich das vielleicht ändern, jetzt aber noch nicht.

Space


Antwort von eXp:

Eine V90 ist bereits mit einkalkuliert, die SanDisk Extreme Pro für 170€. Ich nutze schon so viele Jahre SanDisk und hatte noch nicht ein einziges Problem mit den Karten. Allerdings bekommt man bei anderen Herstellern auch zwei Karten für den Preis, das muss ich mir also nochmal durch den Kopf gehen lassen.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Bei den Kosten der Kamera sollte man den SPeicher mit einkalkulieren.
Das stimmt natürlich.
Du wirst 100/120 ja auf jeden Fall mal ausprobieren wollen, und da kommst du eben um V90 nicht herum. Aus eigener Erfahrung kann ich halt sagen, dass ich früher immer sehr schnell darin war, alle Möglichkeiten auszuprobieren und auszuschöpfen und hinterher festgestellt habe, dass einige davon viel gekostet haben, aber ich sie eigentlich nicht oder kaum verwende. Dazu gehört bei mir 100p.

Sehr wichtige Merkmale sind 10-bit und die Farben. Daher war es für mich wichtig, eine Resolve-Lizenz zu kaufen (XAVC 10-bit benötigt Studio). Die 200 Euro waren wichtiger als, z.B., eine CFast-Karte. Andere filmen in Standard, Neutral oder jetzt S-Cinetone und machen fast keine Farbspielchen, also könnten die sich das schenken.

Sehr viel sparen (und das Gegenteil) kann man mit Objektiven. Der Impuls sagt, nimm wenigstens einen Allrounder, ein 24-70. Ich empfehle stattdessen das 35 f1.8. Ich habe den Vielen geglaubt, die sagten, wenn sie nur ein Objektiv mitnehmen könnten, wäre es dies. Und sie hatten Recht. Mit diesem Objektiv, das ich für 350 € bei Leistenschneider aus der Gelegenheiten - Vitrine gekauft habe, bin ich mehr als glücklich.

Space


Antwort von Mediamind:

Am Freitag hatte ich eine Hochzeit. Sehr stimmungsvoll, sehr dunkel. Mit f:2.8 war ich nicht ganz glücklich. Ansonsten ist mein "immer drauf" das SIgma Art 24-70. Statt das 35 mm Objektiv zu nehmen, bin ich bei SIgma Art 40 mm f:1,4 übrigens gelandet. Ein wahnsinnig gute Optik, erfüllt aber bei längeren Einsätzen aus der Hand den Tatbestand der Körperverletzung.
Nochmals zu den Karten. Mir ist keine V90 von Sandisk bekannt. Leider. Ich bin mit den Sandisk Extreme Pro immer gut gefahren. Im Weddingbereich hast Du mit Sicherheit immer wieder 100 fps, von daher macht das bei mir Sinn, bei anderen eben eher nicht.

Space


Antwort von rush:

Mediamind hat geschrieben:

Nochmals zu den Karten. Mir ist keine V90 von Sandisk bekannt. Leider.
Guckst Du einfach Mal auf der Herstellerseite:

https://shop.westerndigital.com/de-de/p ... 064G-GN4IN

Space


Antwort von Jott:

Oder auf amazon. Natürlich gibt es V90 von Ssndisk.

Space


Antwort von hexeric:

übrigens OHNE aktuelles firmware upgrade gibt es bei 4-ch recording via K3M adapter in unregelmäßigen abständen aussetzer mit elektronischem fehlton auf der aufnahme.

Space


Antwort von TomStg:

hexeric hat geschrieben:
übrigens OHNE aktuelles firmware upgrade gibt es bei 4-ch recording via K3M adapter in unregelmäßigen abständen aussetzer mit elektronischem fehlton auf der aufnahme.
Im Analog- oder Digital-Modus?

Space


Antwort von eXp:

Axel hat geschrieben:

Sehr wichtige Merkmale sind 10-bit und die Farben. Daher war es für mich wichtig, eine Resolve-Lizenz zu kaufen (XAVC 10-bit benötigt Studio). Die 200 Euro waren wichtiger als, z.B., eine CFast-Karte.
Davinci in der Studio-Version ist vorhanden, die 170€ für die Lizenz (von jemanden der bereits mehrere BMPCC 6K hat) ist echt ein Witz für dieses geniale Stück Software.
Axel hat geschrieben:

Sehr viel sparen (und das Gegenteil) kann man mit Objektiven. Der Impuls sagt, nimm wenigstens einen Allrounder, ein 24-70. Ich empfehle stattdessen das 35 f1.8. Ich habe den Vielen geglaubt, die sagten, wenn sie nur ein Objektiv mitnehmen könnten, wäre es dies. Und sie hatten Recht. Mit diesem Objektiv, das ich für 350 € bei Leistenschneider aus der Gelegenheiten - Vitrine gekauft habe, bin ich mehr als glücklich.
Ja das 35mm 1.8 habe ich auch, ich habe es dem GM vorgezogen weil es natürlich bedeutend günstiger ist, aber vor allem weil es kein sichtbares Focus-Breathing hat.
Dazu hab ich noch das 24-105er f4, 85mm 1.8 und das 12-24mm f4. Ein lichtstarkes Tele leihe ich mir bei Bedarf vom Schwager.

Hab mich nun doch für die Kingston React Plus statt der Sandisk entschieden.

Space


Antwort von hexeric:

TomStg hat geschrieben:
hexeric hat geschrieben:
übrigens OHNE aktuelles firmware upgrade gibt es bei 4-ch recording via K3M adapter in unregelmäßigen abständen aussetzer mit elektronischem fehlton auf der aufnahme.
Im Analog- oder Digital-Modus?
4-ch (24bit PCM) geht ja nur im digital modus über den schuh
war wohl ein buffer problem. jetzt kann man auch kleine konzerte aufzeichnen

Space


Antwort von Mediamind:

Hier ist eine A7SIII bei Regen ausgestiegen, finde ich jetzt nicht sooo gut. Meine Gh5 hatte ich auf Island an den Wasserfällen immer mal wieder komplett nass und das ohne Probleme.

https://www.youtube.com/watch?v=A4lc3qyZ404

Space


Antwort von Axel:

@Mediamind
Schlimm, aber so viel Vertrauen hätte ich in "spritzwassergeschützt" auch wieder nicht.

Hier eine Alternative zu der von dir empfohlenen fieldmonitor App, mit mE zwei hauptsächlichen Vorteilen: eigene LUTs und (via 5GHz Setting) Lag etwa im Rahmen einer normalen HDMI-Verbindung:

Schon wieder 18,99 € für die "Pro"-Version, stöhnt die virtuelle Brieftasche, aber die blieb gerade dick durch mein verächtliches Apple-Fan-tum. Ich erzählte Freunden mit dem XS Pro Max, wie klasse wohl das iPhone 13 Pro Display ist, und sie sagten, okay, wir machen nächste Woche 'nen neuen Vertrag. Du hast ja noch das 7-er. Willst du nicht eins von den 10-nern haben? Ich zierte mich ein wenig (würdevoll) und sagte, ist ja schon ganz schön pansig, dieses Max, aber klar, okay, danke ...

Space


Antwort von Mediamind:

Hallo Axel, werde ich mir mal anschauen. Das mit den iPhones kenne ich. Ich bekomme immer die abgelegten von meiner Frau. Dennoch habe ich ein gut gebrauchtes iPhone zehn. Ansonsten wäre ich wahrscheinlich immer noch beim iPhone 5
Ich bin gerade in Hamburg und habe mit der A7S3 Aufnahmen vom Triathlon gemacht. Ich bin auf die Auswertung gespannt, bei 240 Bildern pro Sekunde interessiert es mich schon, wie der Autofokus mit den schnell bewegten Objekten (Sportlerinnen und Sportler) klargekommen ist.

Space


Antwort von eXp:

Mediamind hat geschrieben:
Hier ist eine A7SIII bei Regen ausgestiegen, finde ich jetzt nicht sooo gut. Meine Gh5 hatte ich auf Island an den Wasserfällen immer mal wieder komplett nass und das ohne Probleme.

https://www.youtube.com/watch?v=A4lc3qyZ404
Lag aber wohl am Zubehörschuh, er hatte die kleine Kappe nicht drauf, darum sind die Kontakte nass geworden.

Space


Antwort von klusterdegenerierung:

Wie bitte kann man so angezogen (Hemd halb aus der Hose) auf einer Hochzeitsgesellschaft rumlaufen?
Der kam mir beim letzten Video schon merkwürdig vor, jetzt weiß ich wieso! Peinlich.

Space


Antwort von Mediamind:

klusterdegenerierung hat geschrieben:
Wie bitte kann man so angezogen (Hemd halb aus der Hose) auf einer Hochzeitsgesellschaft rumlaufen?
Der kam mir beim letzten Video schon merkwürdig vor, jetzt weiß ich wieso! Peinlich.
Matt Johnson ist Kult. Ein sympathischer Typ, der eine Menge Erfahrung hat und von dem was er macht auch etwas versteht. Nicht alle Hochzeitspaare wollen einen heraus geputzten Gockel. Schon mal gar nicht in Texas. Die Brautleute sind da übrigens auch eher bodenständig.

Space


Antwort von klusterdegenerierung:

Mediamind hat geschrieben:
klusterdegenerierung hat geschrieben:
Wie bitte kann man so angezogen (Hemd halb aus der Hose) auf einer Hochzeitsgesellschaft rumlaufen?
Der kam mir beim letzten Video schon merkwürdig vor, jetzt weiß ich wieso! Peinlich.
Matt Johnson ist Kult. Ein sympathischer Typ, der eine Menge Erfahrung hat und von dem was er macht auch etwas versteht. Nicht alle Hochzeitspaare wollen einen heraus geputzten Gockel. Schon mal gar nicht in Texas. Die Brautleute sind da übrigens auch eher bodenständig.
Da kann ich Dir leider nicht zustimmen und ich denke das eine hat nichts mit dem anderen zu tun.
Man kann sich ja gerne Geschmacklos anziehen, aber wenn man weder selbst noch der dude der einen filmt diese bemerken, bzw man nichts ändert, ist das absolut unpassend, gerade für so einen Tag, egal wie die Kunden drauf sind.

Nimmt man das nicht so ernst, gibt es sicherlich noch andere Dinge wo so geschludert wird.
Auch fand ich seine Wedding Filme eher trivial.

Bloß weil jemand viel klicks hat und sich vor der Cam zu Affen macht, hat das noch lange nix mit Qualität und Stil zu tun, was ich für einen weddingfilmer unumgänglich finde.

Space


Antwort von Axel:

DSLR Shooter hat ein LUT-Pack für die A7SIII:

für unter 10 Euro,
... sowie einen umfangreichen Video-Guide für über 70 Euro:


Ob ich in dem Guide etwas Neues erfahren würde? Wahrscheinlich, irgendein offenes Geheimnis, was jeder wusste, bloß ich nicht. Aber ob's so viel wert ist?

Space


Antwort von Mediamind:

Den Falsecolorlut finde ich spannend. Vermutlich wird das auch mit der FX6 ohne Probleme gehen. Klingt nicht schlecht, für den Preis.

Space


Antwort von klusterdegenerierung:

Hab mir das Pack gerade für die FX6 gekauft, mal schauen ob es funktioniert.
Werde berichten. :-)

Space


Antwort von klusterdegenerierung:

Nachdem ich es nun gekauft und das erste Falsecolor Totu Video gesehen habe, bin ich auch mega enttäuscht, denn er macht ja die ganze Zeit einen auf Kamera Lut für A7 und FX3, dabei ist es aber eine popelige Lut für Monitore statt für Kameras!!

Wer bitte verwendet bei den Cams einen so günstigen Moni, der nicht mal über Falsecolor verfügt?
Stattdessen kritisiert er das komfortable InMonitor Falsecolor mit 15 Farben und meint seines mit 3 Farben, die auch noch ausgerechtnet genauso aussehen wie peaking Farben, sei besser.

Was ein Reinfall, ich möchte es am liebsten zurückgeben. :-(

Space


Antwort von klusterdegenerierung:

Hab die Lut jetzt mal in die FX6 geladen und sie funktiniert nicht wirklich, es wird nur das Grün angezeigt und ansonsten ist die useability auch für die Tonne, denn man muß jedes mal aufwendig die lut laden, das ist alles Käse und macht dann doch keinen Sinn.

Werde mir gleich mal die Luts für Resolve ansehen und denke das auch das kaum Sinn macht, da via RCM die Werte relativ neutral sind, erst Recht wenn man zum Arri C Gamma switcht.

Space


Antwort von klusterdegenerierung:

So, auch die Luts funzen nicht wirklich für das Material der FX6, viel zu dunkel, selbst bei der 0 Lut, die Hauttöne ja gut, aber da wird dann auch alles andere mit gelber.
Da sieht das Arri Gamma um Welten porfessioneller aus.

Wer mag dem schenke ich sie, vielleicht ist das ganze ja auch nix für die FX6 oder für mein Nutzerverhalten und an dem Punkt habe ich mich auch ein wenig über seinen Einwand gewundert, das er so massive Probleme mit der Farbe hat.

Ich weiß ja nicht was er für ein Programm nutzt, aber mit RCM ist das simpler als Abziehbilder im Duplo & Hanuta.

Space


Antwort von Axel:


Okay nichts Neues für mich, aber spricht mir aus der Seele.

Space


Antwort von Axel:


Immer wieder finde ich ein paar neue Ideen auch im hundertsten Video zum Autofokus der A7Siii, z.B. Focus Hold auf den Auslöser zu legen. Muss ich mal probieren. Davon abgesehen: A7Siii + MacMini + Resolve Studio = peace of mind.

Space


Antwort von Mediamind:

Shutter Button halb drücken und damit Focus Hold auslösen ist bei mir als Default vorgegeben. Ich kann das meiner Kenntnis nach auch gar nicht anders belegen, wenn man die Aufnahmeauslösung über Shutterbutton auf "aus" gestellt hat.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Shutter Button halb drücken und damit Focus Hold auslösen ist bei mir als Default vorgegeben. Ich kann das meiner Kenntnis nach auch gar nicht anders belegen, wenn man die Aufnahmeauslösung über Shutterbutton auf "aus" gestellt hat.
Ich habe im Augenblick keine Ahnung, wo ich den rot bekringelten "Movie"-Button auf den Hauptauslöser gelegt habe. Das würde schonmal helfen. Gegenwärtig habe ich auf dem AF-ON-Button (neben C1) AF-MF-Toggle. Ich benutze es in dem Sinn wie Crafford im Video, sehe aber ein, dass ein Taster hierfür besser ist als eine Taste. Kannst du mir da kurz helfen?

Space


Antwort von Mediamind:

Klaro, das ist der gelbe Werkzeugkoffer, Nr 3 und dan REC mit Auslöser => Ein oder Aus

Space


Antwort von Axel:

Hey, danke.
Ich habe gerade getestet. Funktioniert auch mit aktivem Hauptauslöser. Die Gefahr besteht da natürlich, dass man versehentlich zu tief drückt und die Aufnahme abbricht ...
For the record: jede Taste funktioniert mit FOCUS HOLD - Belegung als Taster.

Space


Antwort von Mediamind:

Gerne doch,

habe es gerade einmal ausprobiert. Wenn ich den Auslöser ganz drücke, bricht die Aufnahme bei mir nicht ab. Ist das bei Dir anders?

Space


Antwort von Axel:

Mediamind hat geschrieben:
Gerne doch,

habe es gerade einmal ausprobiert. Wenn ich den Auslöser ganz drücke, bricht die Aufnahme bei mir nicht ab. Ist das bei Dir anders?
Bei ist/war REC w/Shutter = ON.

Tüftele gerade aus, was besser ist.

Space


Antwort von rush:

Kurze Frage in die Runde...

Habe soeben mal wieder ein paar Clips auf den Rechner kopiert und plötzlich wird einer davon als Hochformat abgespielt bzw. enthält scheinbar auch diese Metadaten.

Alles h.265 10bit 200mbit und ja - ich hatte die Kamera zu dem Zeitpunkt teilweise und insbesondere bei Beginn der Aufnahme im Hochformat gehalten - aber aus Gründen.

Kann man innerhalb der Kamera irgendwie deaktivieren das hier "falsche" Rotations-Settings für Video gespeichert werden? Ich mein bei Fotos isses mir wumpe - aber beim kurzen Video-Playback wirkt es dann halt schon "falsch" und wundert mich warum er das überhaupt so abspeichert. Wird auch in der Kamera als Hochformat Video angezeigt der Clip und ist reproduzierbar.

Weiß jemand wo ich das deaktivieren kann für Video? Ich möchte jederzeit Videos im Querformat aufnehmen - unabhängig der Kamerarotation zu Beginn des Takes :-)

Setze ich in den Playback Options das Setting "Display Rotation" auf OFF haut zwar die Anzeige innerhalb der Kamera wieder hin und alles bleibt quer - allerdings scheint das Hochformat Flag weiterhin gespeichert zu sein da mir am Macbook der Clip weiterhin als Hochformat präsentiert wird im Quick Time Player.

Die banalste Lösung ist sicher vor Betätigung der Aufnahme die Kamera kurz zu Leveln - aber eigentlich sollte man sowas doch auch fix einstellen können?

Space


Antwort von Mediamind:

Ein interessantes Problem. Mir ist keine Einstellung bekannt, mit der Du dies aktiv einstellen könntest. In der Anleitung findet sich hierzu nichts.

Space


Antwort von Axel:

Ein Workaround wäre, die benutzdefinierten Tasten im Playback-Modus zu editieren, sodass auf einer Taste (z.B. C3) die Dateiübersicht liegt und auf einer anderen Taste (z.B. C2) ROTATE (nicht unter Playback Option, sondern unter Edit). Die Metadaten zu korrigieren wäre dann Sekundensache.

Space


Antwort von rush:

Danke für den Tipp @ Axel - werde ich mir mal ansehen ob das eine Option für mich sein könnte.

Wahrscheinlich werde ich mir aber angewöhnen vor dem Klick auf den Auslöser die Kamera entsprechend auszurichten um dieses - zugegebenermaßen kleine Problem - zu umgehen.

Dennoch merkwürdig das Sony hierfür offenbar keine Option vorgesehen hat dies entsprechend dauerhaft festzulegen.

Space


Antwort von roki100:

Axel hat geschrieben:

Okay nichts Neues für mich, aber spricht mir aus der Seele.
seht gute Colorcorrection und Grading Tipps wie ich finde. Die gezeigten Bilder sehen auch wunderbar aus.

Space


Antwort von klusterdegenerierung:

Komisch, seit Jahren belichte ich bei allen Sonys 1.7 über und predige es hier seit Jahren und da muß erst ein Youtuber kommen der ein paar nette Schnecken ins rechte Licht rückt und das ganze quasi als unumkehrbares Gesetz proklamiert, es mit ein paar schnuckelligen Beispielen untermalt und plötzlich laufen alle wie betäubt sabernd hier rum und stoßen den heiligen Schrei gen Himmel! Holy, echt jetzt?

Habs Euch doch schon vor Jahren jeden 2. Tag gesagt!

Space


Antwort von Axel:

@kluster
Hm, hat ja zumindest hier nie einer was anderes behauptet. Nur der eine oder andere spielt mit Creative Look Standard oder S-Cinetone rum, und das Video sagt, scheinbar einfacher, in Wirklichkeit nicht.

Ich finde False Colors ja auch nicht schlecht - und mit der Monitor+ - App hat man das. Bloß, dass ich das für Run & Gun zu unintuitiv finde und dann doch lieber kritisch nach Augenmaß belichte. Ich weiß inzwischen schon ganz gut, in welchen Situation die Messmethode Multi danebenliegt und in welcher Richtung. Wysiwyg.

Space


Antwort von cantsin:

Axel hat geschrieben:
@kluster
Hm, hat ja zumindest hier nie einer was anderes behauptet. Nur der eine oder andere spielt mit Creative Look Standard oder S-Cinetone rum, und das Video sagt, scheinbar einfacher, in Wirklichkeit nicht.
Das Problem ist halt, dass bei Profilen, bei denen das Kamerabild weitgehend dem fertigen Videobild entspricht, die Belichtung 100% sitzen muss, während (a) gute Log-Profile mehr Spielraum geben und (b) Software wie Resolve bei der Umwandlung von Log nach Rec709 zu einem Nobrainer machen und (c) deren Tone Mapping bei der Log-Umwandlung die meisten Belichtungsfehler sogar automatisch korrigiert...

Space


Antwort von Axel:

cantsin hat geschrieben:
(b) Software wie Resolve bei der Umwandlung von Log nach Rec709 zu einem Nobrainer machen und (c) deren Tone Mapping bei der Log-Umwandlung die meisten Belichtungsfehler sogar automatisch korrigiert...
Das mit der Timeline-Node habe ich erst spät erfahren. Alternativ kann man ja einen Node-Tree mit Color-Space-Transform oder LUT als Supergrade sichern. Da möchte ich eine Frage anhängen: Resolve zeigt mir in einem Node aus so einem gegrabbten still nicht (z.B.) die Kurve, die zuerst verwendet wurde, sondern irritierenderweise die, die ich zuletzt vielleicht woanders verwendet habe. Kann man das Verhalten ändern oder gibt es da einen Workflow-Trick?

Space


Antwort von cantsin:

Axel hat geschrieben:
cantsin hat geschrieben:
(b) Software wie Resolve bei der Umwandlung von Log nach Rec709 zu einem Nobrainer machen und (c) deren Tone Mapping bei der Log-Umwandlung die meisten Belichtungsfehler sogar automatisch korrigiert...
Das mit der Timeline-Node habe ich erst spät erfahren. Alternativ kann man ja einen Node-Tree mit Color-Space-Transform oder LUT als Supergrade sichern. Da möchte ich eine Frage anhängen: Resolve zeigt mir in einem Node aus so einem gegrabbten still nicht (z.B.) die Kurve, die zuerst verwendet wurde, sondern irritierenderweise die, die ich zuletzt vielleicht woanders verwendet habe. Kann man das Verhalten ändern oder gibt es da einen Workflow-Trick?
Ich verstehe nicht ganz, was Du meinst (auch mit Deinen Worten "zeigt mir die Kurve" - meinst Du das wörtlich, d.h. in der Kurvenanzeige, oder figurativ, d.h. im Aussehen des Bilds? Und was meinst Du mit "zuletzt woanders"?).

Der beste Workflow ist IMHO, im Color-Tab Farbkorrektur-"Groups" zu definieren. Hat man z.B. SLog3-Material aus einer Sony A7sIII in der Timeline, weist man allen dementsprechenden Clips eine neue Group zu, die man z.B. "SLog3" nennen kann. Man erhält dann die neue Möglichkeit, Farbkorrektur-Nodetrees zu definieren, die auf die entsprechende Clipgruppe (a) vor den individuellen-Clip-Korrekturen und (b) nach den individuellen Clip-Korrekturen (aber vor den Timeline-Korrekturen) angewandt werden.

Also legt man die Slog3-zu-Rec709-Transformation auf (b). Alle SLog3-Clips im Projekt werden dann automatisch nach Rec709 gebracht, und alle Veränderungen der Transformations-Parameter werden ebenfalls automatisch für alle diese Clips übernommen. Ausserdem kann man für Material aus verschiedenen Kameras jeweils verschiedene Korrekturgruppen definieren (neben SLog3 z.B. 'Blackmagic Raw' für Clips aus BM-Kameras).

Das hat auch den Vorteil, ggü. einer Timeline-Node, dass die Gamma- und Farbraumtransformationen nicht auf Material angewendet werden, dass diese gar nicht braucht, wie z.B. eingebettete Standbilder/Fotos/Grafiken.

Space


Antwort von klusterdegenerierung:

Kann es sein, das ihr euch wirklich die ganze Zeit extra Arbeit machen wollt, oder hängt das ganze mit irgendeinem Voodoo zusammen oder bekommt ihr Geld fürs umständliche Color transformen, oder habt ihr es wirklich immer noch nicht verstanden?

Wenn ihr euch ein Preset erstellt, mit RCM / Wide Gamut / Rec709 im Colormanagement, eure Cam den Gamma selbst wählt, oder ihr sonst nur einmal angeben braucht, müßt ihr unter Vorrausetzung eines guten WB beim Dreh, überhaupt null mehr machen, garnix mehr, das Material ist nahezu perfekt und kann höchstens je nach Geschmack noch etwas gepushed werden, ansonsten ist das schon perfekt und vorallem perfekter als Color Transform es je hinkriegen würde!

Mir scheint ihr wollt es garnicht wirklich perfekt und schnell, ihr wollt dran rum schrauben bis ihr das Gefühl habt jetzt passts, aber ob das Auge da richtig lag, who knows.
Testet es doch wenigstens mal, ihr könnt mich auch gerne um Hilfe fragen, kein Ding. ;-)

Space


Antwort von Axel:

cantsin hat geschrieben:
Axel hat geschrieben:
Resolve zeigt mir in einem Node aus so einem gegrabbten still nicht (z.B.) die Kurve, die zuerst verwendet wurde, sondern irritierenderweise die, die ich zuletzt vielleicht woanders verwendet habe. Kann man das Verhalten ändern oder gibt es da einen Workflow-Trick?
Ich verstehe nicht ganz, was Du meinst (auch mit Deinen Worten "zeigt mir die Kurve" - meinst Du das wörtlich, d.h. in der Kurvenanzeige, oder figurativ, d.h. im Aussehen des Bilds? Und was meinst Du mit "zuletzt woanders"?).
Okay, Beispiel. Ich habe in meinem als Powergrade gesicherten Nodetree-Template als zweiten Node "Contrast", was ich mit Custom Curves mache. Irgendwo weiter hinten habe ich eine Node "Saturation", wofür ich die Kurvenversion Lum vs Sat verwende. Wenn ich im nächsten Clip auf "Contrast" gehe, habe ich dort, trotz frisch angewandtem Powergrade eben Lum vs Sat und keine Custom Curves. Das heißt, dass die zuletzt verwendete Iteration dieses Werkzeugs gespeichert wurde und ich jedesmal von Hand umschalten muss.
klusterdegenerierung hat geschrieben:
Wenn ihr euch ein Preset erstellt, mit RCM / Wide Gamut / Rec709 im Colormanagement, eure Cam den Gamma selbst wählt, oder ihr sonst nur einmal angeben braucht
(...)
Testet es doch wenigstens mal, ihr könnt mich auch gerne um Hilfe fragen, kein Ding. ;-)
In der Tat, anstatt deswegen stundenlang Tutorials zu gucken, kannst du mir kurz 'ne Info dazu geben. Und zwar habe ich aktuell 17.4.2 Build 9, und seit 17.4.0 gilt ...

zum Bild

... simplifiziertes Farbmanagement, heißt, es gibt kein "Wide Gamut", ist da

zum Bild

"HDR DaVinci Wide Gamut Intermediate" das Richtige? Klingt richtig, sieht zunächst mal richtig aus, aber das ist ja oft so. Lass dich von "Rec.709-A" nicht irritieren, das setzt eine Flagge gegen den Quicktime Gammashift.

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
"HDR DaVinci Wide Gamut Intermediate" das Richtige?
Servus Axel, jo genau und das mit dem Rec weiß ich, ich nehme Scene.
Hier ich hau noch mal richtig einen raus, ist der totale insider Tipp und "Geldwert" :-))

Hier beschreibt er sehr kurz und ohne Umwege & präzise wie die settings sind und zusätzlich, wie man mit dem Colorchecker zu perfekten Farben kommt.
Ich habe es genauso gemacht und es passt wirklich wie Arsch auf Eimer, absolut Top.

Hach, das Leben kann so einfach sein! :-))

https://www.youtube.com/watch?v=taroCRApJPs

Space


Antwort von Axel:



Space


Antwort von klusterdegenerierung:

Tolle Sache Axel, aber die FX6 bekomme ich partout nicht ans laufen, ob Kabel oder WiFi.
Schade, würde ich mir wohl kaufen.

Space


Antwort von klusterdegenerierung:

@Axel :-)



Space


Antwort von Axel:

Das wird im deutschen Amazon wohl dieser Portkeys sein, eine Firma, die nicht nur abkupfert, sondern sich zum Beispiel als idealer Kumpan für die Z-Würfel (Monitoring plus Bedienung) einen Nischen-Namen machte.

Aber um schonungslos ehrlich und selbstkritisch zu sein: ich verlinke Brandon Li nur noch der Inspiration wegen. Ich hab die App, finde sogar die Verbindung stabiler als hier geschildert, habe sie aber praktisch nie genutzt. Ich habe auch in der Vergangenheit einige externe Monitore besessen, aber praktisch nie benutzt.

Wenn ich aber nicht run&gun-mäßig unterwegs wäre, dann wäre die App ihr Geld durch die Scopes inklusive Falschfarben wert.

Space


Antwort von klusterdegenerierung:

Hab mir die App eben besorgt und bin ganz angetan.
Eines verstehe ich nur nicht, die Scope Anzeige zeigt bei krasser Überbelichtung immer noch einen Wert weit unter legal an, das finde ich doch arg befremdlich.

Space


Antwort von cantsin:

Habe letzte Woche zum ersten Mal mit einer A7S III gedreht, als Teil einer Crew für einen Wahlkampfspot. Von mir stammen alle Außenaufnahmen (vor dem Denkmal des surinamischen Widerstandskämpfers Anton de Kom in Amsterdam), gedreht auf einem Ronin RS2, mit dem Sony GMaster 24-70mm bei 50mm/2.8, im Rollstuhl geschoben für die Kamerafahrten, geleuchtet mit einer Aputure Nowa P300C + einer C300D für die Flutlichteffekte und ISO 640.

https://www.youtube.com/watch?v=3ftkdCjpM1o

Was schon toll ist an der Kamera, ist, wie bombensicher der Tracking-Autofokus funktioniert. Diese Einstellungen hätte ich mit meinen Panasonic-Kameras so nicht drehen können. Und die neue Menüstruktur ist eine dramatische Verbesserung. Ich hatte am Anfang des Drehs das Problem, dass das Gesichts-Tracking zwar aktiv war, dies (bzw. der getrackte Bereich) aber nicht auf dem Display angezeigt wurde, was an der Konfiguration der (Verleih-)kamera lag. Obwohl ich noch nie mit der Kamera gearbeitet hatte, brauchte ich keine halbe Minute, um den entsprechenden Menüpunkt zu finden und die Tracking-Anzeige zu aktivieren.

Space


Antwort von pillepalle:

Ja, der Fokus sitzt aber die Kamera wackelt :) Hätte man ruhig noch in der Post stabilisieren können, denn es macht in meinen Augen die ganze Fahrt kaputt. Und ganz ehrlich... so eine Fahrt hätte man auch noch von Hand gezogen bekommen. Aber es stimmt schon, ein guter AF ist schon was feines. Moderne Kameras bieten in Sachen AF wirklich 'Plug & Play'-Funktionalität.

VG

Space


Antwort von Jörg:

denn es macht in meinen Augen die ganze Fahrt kaputt. findest du das wirklich?
Ich denke, zuerst kommt die Botschaft, dann die Technik.
Und da wird niemand ( außer in pixelpeeperforen) irgendwelche Probleme mit haben.

Space


Antwort von klusterdegenerierung:

Wieder eine tolle Arbeit Cantsin!
Glückwunsch und mit dem Rollstuhl bist Du auch schon nah an meinem Schreibtischshot. ;-)

Space


Antwort von pillepalle:

Jörg hat geschrieben:
denn es macht in meinen Augen die ganze Fahrt kaputt. findest du das wirklich?
Ich denke, zuerst kommt die Botschaft, dann die Technik.
Und da wird niemand ( außer in pixelpeeperforen) irgendwelche Probleme mit haben.
Sonst würde ich es ja nicht schreiben :) Eine langsame wackelige Kamerafahrt ist einfach Käse, weil's total amateurmäßig wirkt. Dann lieber in der Post zoomen, wenn man Spannung/Aufmerksamkeit aufbauen möchte. Aber Du hast sicher insofern Recht, dass es Vielen beim flüchtigen Betrachten vermutlich gar nicht auffallen wird. Bevor ich angefangen hatte zu filmen, wäre es mir vielleicht auch nicht aufgefallen.

VG

Space


Antwort von klusterdegenerierung:

pillepalle hat geschrieben:
Bevor ich angefangen hatte zu filmen, wäre es mir vielleicht auch nicht aufgefallen.
Haha, meeega! :-))

Space


Antwort von Axel:

pillepalle hat geschrieben:
Ja, der Fokus sitzt aber die Kamera wackelt :)
Ist mir in cantsins Video jetzt nicht so aufgefallen. Aber eingefallen ist mir dabei, dass wir in diesem A7Siii-Sammelthread ja Gyroflow noch gar nicht hatten:


Space


Antwort von klusterdegenerierung:

Wahrscheinlich weil es ein krampf ist damit zu arbeiten, wenn es überhaupt funzt.
Da ist Content Browser ja geradezu ein Kinderspiel. :-)

Space


Antwort von roki100:

@cantsin, sieht irgendwie nach Netflix Serie aus. Ein bisschen Lila Farbstich (nicht alle Szenen) ist drin, aber gut.

Space


Antwort von klusterdegenerierung:

Zum piepen hier!
Die Jungs die sonst Bürgersteige oder Menschen von hinten filmen haben wieder die besen Tipps.

Space


Antwort von Darth Schneider:

@roki
Nach Netflix Serie ?
Welche von den 20 000 Serien meinst du denn ? ;))
Als hätte Netflix nur einen typischen Look….
Gruss Boris

Space


Antwort von roki100:

"Darth Schneider" hat geschrieben:
@roki
Nach Netflix Serie ?
Welche von den 20 000 Serien meinst du denn ? ;))
:D

Es sieht produktiv aus.

Space


Antwort von roki100:

klusterdegenerierung hat geschrieben:
Zum piepen hier!
Die Jungs die sonst Bürgersteige oder Menschen von hinten filmen haben wieder die besen Tipps.
Ich wollte mich mit meine filme auch niemals mit Feuerwehr/rotes-Kreuz/Notfallsanitäter o.Ä -Videographen messen. Ich habe lediglich geschrieben, dass das Video gut ist (m.M. besser als alle deine Videos) und das ich da bisschen (etwas bläulich) Lila Farbstich bei manchen Szenen sehe. Manche Wahrnehmungen und Bewertungen werden höchstwahrscheinlich auch diesmal nicht respektiert, sondern von immer die selben SlashCam-User als "Farbenblind" oder "dein Bildschirm ist nicht kalibriert" und blablabla-Streitsüchtigkeit erniedrigt und "jetzt gib ihm!"-Charakteren aufgeheizt.

Links original, rechts -das was ich mit "(etwas bläulich) Lila Farbstich" meine- entfernt:
Bildschirmfoto 2022-03-12 um 16.28.18.png

Space


Antwort von cantsin:

roki100 hat geschrieben:
Ich wollte mich mit meine filme auch niemals mit Feuerwehr/rotes-Kreuz/Notfallsanitäter o.Ä -Videographen messen. Ich habe lediglich geschrieben, dass das Video gut ist (m.M. besser als alle deine Videos) und das ich da bisschen (etwas bläulich) Lila Farbstich bei manchen Szenen sehe.
Das Grading (und die ganze Postproduktion) habe ich nicht gemacht. Bin da auch bei pillepalle, dass man zumindest eine längere Einstellung hätte stabilisieren können.

Das ganze wurde auf einer öffentlichen Freitreppe vor dem Denkmal gedreht, mit ziemlich unebenen Betonplatten als Untergrund. Im Optimalfall hätte man da Schienen verlegen (und mit einer richtigen Dolly arbeiten) müssen, was aber nicht ging, weil der Drehort nicht abgesperrt werden durfte und während des Drehs immer wieder Fahrrad- und Rollstuhlfahrer durchgelassen werden mussten. Das ist dann halt auch eine inhaltliche Abwägung. Dass das Denkmal von Anton de Kom im Hintergrund sichtbar und nicht nur fake reinmontiert ist, ist da letztlich wichtiger als eine glatte Kamerafahrt.

Space


Antwort von rush:

Heute fiel mir wieder was ein das ich noch nicht befriedigend lösen konnte.

Kamera filmt in Slog - Gamma Assist ist auf An (Slog3 ->709). Alles prima.

Gehe ich nun in den Fotomodus bleibt dieser Assist Mode aktiv - sowohl beim Fotografieren als auch bei der Fotowiedergabe was natürlich kontraproduktiv und nicht gewünscht ist.

Das Assist Setting ist auch im Menü als globales Setting geführt und ich bekomme es irgendwie nicht gebacken es für Fotos generell und dauerhaft abzuschalten - schalte ich es im Menü aus - ist es generell aus (auch für Video).

Klar geht es per Quick Menü halbwegs flott und per Funktionstaste noch schneller - aber a bissl nervig ist es dennoch dafür extra eine Taste zu "opfern" anstatt es einmal generell getrennt festlegen zu können. Übersehe ich da was?

Space


Antwort von Mediamind:

Ich habe den assist auf Auto gestellt, die Profile sind für Video und Foto als getrennt konfiguriert. Damit läuft das bei mir ohne Probleme. Viele Grüße

Space


Antwort von rush:

Muss ich nochmal checken - meine aber das auch probiert zu haben und es damit nicht gelöst zu bekommen trotz getrennter Foto/Videokonfiguration.

Edit: scheint doch zu klappen, irgendwie ging es auch schonmal. Keine Ahnung wo diesmal der Wurm war ;-)

Was nicht funzt ist Fotos zu betrachten während man noch im Videomodus ist - dann bleibt der Log Assist... Aber das ist verständlich.

Vorerst also gelöst wie es scheint, thx

Space


Antwort von klusterdegenerierung:

Schiesst Du denn dann die Fotos auch im SLog Mode?
Nimmst Du Raw oder Jpg?

Slog hat Auswirkungen aufs Raw und natürlich auch aufs Preview im Fotomodus.
Wenn Du auf no Profile stellst bist Du direkt 2 Sorgen los, das Du einen Assist brauchst & Du unerwünschte Raw Ergebnisse bekommst. :-)

Space


Antwort von rush:

Warum sollte der Slog-Assist auf das RAW Auswirkungen haben? Es ist ja nur ein Overlay. Schaltet man den Assist aus werden die Fotos im Videomodus ja ebenfalls "korrekt" angezeigt.

Oder anders: ich fotografiere nicht in Slog, also PP Off.

Aber jetzt wo du fragst... Macht das jemand von Euch? Also das Slog Profil zum fotografieren in RAW hernehmen? Bringt das was? Habe ich mir noch nie Gedanken drüber gemacht...

Da die 7s aber von mir tatsächlich ziemlich ausgeglichen im Foto und Videomodus bewegt wird switche ich halt häufig zwischen beiden Welten und hatte das oben genannte Problem was nun aber wieder "behoben" ist durch den Hinweis von Mediamind in dem der Gamma Assist wohl besser auf Auto stehen sollte.

Space


Antwort von cantsin:

rush hat geschrieben:
Warum sollte der Slog-Assist auf das RAW Auswirkungen haben? Es ist ja nur ein Overlay.
RAW ist in der Tat nur RAW, wenn Bildprofile keine Auswirkung drauf haben. Allerdings ist es bei sLog (und anderen Log-Profilen) ja so, dass sie den einstellbaren ISO-Bereich der Kamera verändern, bzw. die Minimum-ISO hochsetzen. Das hat dann natürlich auch Auswirkung auf RAW-Fotos...

Space


Antwort von rush:

Der Gamma Assist ist dennoch nur ein Overlay und lässt sich auch bei deaktiviertem PP zuschalten - und genau das stört dann, tut aber nicht weh bis auf das merkwürdig erscheinende Bild.

Da man die 7SIII ja wie erwähnt getrennt für Foto & Video konfigurieren kann ist es aber kein wirklicher Fallstrick und RAW bleibt im Fotomodus dann auch RAW - selbst wenn man unmittelbar danach auf Video schaltet und dort Slog vorkonfiguriert ist.

Problem war in meinem Fall allein das nicht auf Automatik stehende "Gamma Assist" Overlay.

Space


Antwort von Axel:


Zur Inspiration und als Demo der Fokusprogrammierung.


Space


Antwort von klusterdegenerierung:

rush hat geschrieben:
Warum sollte der Slog-Assist auf das RAW Auswirkungen haben? Es ist ja nur ein Overlay. Schaltet man den Assist aus werden die Fotos im Videomodus ja ebenfalls "korrekt" angezeigt.

Oder anders: ich fotografiere nicht in Slog, also PP Off.

Aber jetzt wo du fragst... Macht das jemand von Euch? Also das Slog Profil zum fotografieren in RAW hernehmen? Bringt das was? Habe ich mir noch nie Gedanken drüber gemacht...

Da die 7s aber von mir tatsächlich ziemlich ausgeglichen im Foto und Videomodus bewegt wird switche ich halt häufig zwischen beiden Welten und hatte das oben genannte Problem was nun aber wieder "behoben" ist durch den Hinweis von Mediamind in dem der Gamma Assist wohl besser auf Auto stehen sollte.
Moin rush,
also overlay ist ja gut und schön, aber zb. beim Ninja führt dies zu einer Veränderung der Waveform Werte, wenn man sich an diesen orientiert, resultiert das in einer Falschbelichtung. Im Falle der Sony gottseidank nicht.

Slog hat Auswirkungen auf das Raw und sieht dann auch genauso aus wie SLog, allerdings hat man interessanterweise damit weniger Dynamik Spielraum als pp off, wieso weshalb konnte ich noch nicht ermitteln.

Am Wochenende war dies wieder ein großes Thema, denn ich mußte mit der A7III auch filmen, was ich fasst kaum noch mache, aber eben auch gleichzeitig fotografieren, da nervt es dann tierisch wenn man jede paar Minuten wieder von Slog und Overlay zurück in pp & Overlay off wechseln muß.

Aber das kann man bestimmt profilieren?

Space


Antwort von Axel:

Neuer Überblick von F-Stoppers, etwas fotolastig für einen phylogenetischen Videohybriden.

Im Großen und Ganzen nichts Neues, aber vielleicht mag ja irgend jemand WhoisMatt oder Potato Jet nicht. Außerdem finden sich immer wieder neue Erkenntnisse: kann man tatsächlich bei der Monitoreinstellung SUNNY WEATHER Überbelichtung schlechter beurteilen (und braucht deshalb einen Custom Button dafür)?

Space


Antwort von Axel:

Okay, also diese drei Tutorials (FX3, aber ist ja dasselbe) lassen keine Fragen offen, sehr zu empfehlen:




Space


Antwort von klusterdegenerierung:

Naja, das ist aber alles eher basic und das was man eh wissen sollte wenn man mit einer Cam arbeitet.
Ich hatte da jetzt doch ein bisschen mehr erwartet.

Space


Antwort von Axel:

Strukturiert in den drei wichtigsten Bereichen. Keine Zeit vergeudet für was anderes außer Standard und Slog3. Die 17 Seiten dieses Threads, die ich A7Siii-Neuling MuffinOne vor ca 3 Wochen empfohlen habe oder F-Stoppers "All you need to know" sind eigentlich im Vergleich nicht zu empfehlen. Die ersten Seiten bestehen fast nur aus Irrtümern. Paul Joy erwähnt jetzt mindestens zwei der selten gefundenen Eastereggs, die F-Stoppers z.B. nicht zu kennen scheint: AWB Lock Toggle und Flexible Exposure. Und dass der Benutzer-Weißabgleich zugleich den Tint korrigiert, das wusste ich z.B. nicht. Was nicht viel heißt, ich weiß (immerhin weiß ich's, also kein D&K-Clubmitglied). Stell dir vor, du hast nur ein, zwei Tage, um die FX3/A7Siii kennenzulernen, bevor du sie einsetzen musst. Dann diese drei Videos, die du übrigens in Rekordzeit angesehen hast.

Space


Antwort von Axel:


Gerade bestellt, hier:

zum Bild


Space


Antwort von rush:

Neues Firmware Update verfügbar... Version 2.10

Benefits and Improvements

Allows proxy recording during a remote computer connection
Improves the accuracy of the Eye AF feature
Improves the stability of the custom white balance
Improves eye sensor detection performance with strong light sources, such as sunlight
Improves the operational stability of the camera


https://www.sony.com.sg/electronics/sup ... e/00257134

Bzw auch hier:

https://www.slashcam.de/news/single/Neu ... 17268.html

Space


Antwort von Axel:

rush hat geschrieben:
Improves the stability of the custom white balance ...
Würde mich interessieren, worin diese Instabilität bestanden haben soll. Ich hätte es vorgezogen, wenn der benutzerdefinierte Weißabgleich jetzt auch in den Memory-Modi möglich gewesen wäre. Stattdessen, wie gehabt:

zum Bild

Aber nicht ganz wie gehabt, glaube ich. Waren die Warnhinweise nicht früher mit so einem Obi-Orange unterlegt?
Auf dem Bild auch zu sehen meine Kiwifoto-Augenmuschel. Besser als das Original? Ja, aber tut schon ein bisschen weh. Es gibt auch eine von Hoodman:

zum Bild

... aber keine Review dazu. Außerdem stimmt "gibt" nicht so ganz: nicht auf Lager.
Am liebsten hätte ich sowas wie meine alte Super-8-Muschel, die aber, weil sie einfach übergestülpt war, auch Nachteile hatte:

zum Bild

1. Blockierte den Sensor, der den Sucher ausschaltet, wenn man nicht durchguckt, was die Batterie sehr schnell leert. 2. Blockierte das Ausklappdisplay = konnte nicht einfach draufbleiben. 3. Blieb nicht einfach drauf, sondern fiel manchmal einfach runter ...

Space


Antwort von Axel:


Stimmt, schon fast zwei Jahre (meine kam erst Oktober). Stimme zu, Tieraugenautofokus und Fokusbreathing-Kompensierung wäre besser gewesen als “Augen-AF-Verbesserung”.

Wäre auch mein Fazit. In einem früheren Video verglich Kasey die aktuelle Colorscience von Canon (immer noch der Liebling der slashCAM-Redaktion) mit der neuen von Sony. Auch da, abgesehen davon dass beide (und BMD) extrem ähnlich sind, sind die Hauttöne der Sony inzwischen etwas lebendiger.

Space


Antwort von Axel:

Hatte ich schon ganz am Anfang richtig gemacht:

Ich meine, dass die Belichtungsmessung auf dem Fokuspunkt sitzt. Was ich nicht mehr auf dem Schirm hatte: dass dies in MULTI und HIGHLIGHT nicht funktioniert, und um zwischen diesen beiden hin- und herschalten zu können, habe ich einen Custom Button hergegeben. Szenario: ich will wirklich explizit auf ein Gesicht belichten (der Default).
Andererseits (gerade nochmal probiert) gibt es den Punkt FACE PRIORITY IN MULTI METERING. Zwar stimmt es, dass dies für AE problematisch ist (ich erinnere mich: Tony Northrup hampelt mit dem Gesicht in und aus dem Schatten, und das ganze Bild fängt an zu flackern), aber das gilt in besonderem Maße für die Koppelung an den Fokus. Beides sind phantastische Tools zur Belichtungsmessung, weniger zur automatischen Belichtung (es sei denn, man benutzt AE HOLD bzw. FLEXIBLE EXPOSURE TOGGLE.).

Gestern ausgiebig getestet in der Sonne: Belichtung mit f2.0 und 1/8000 Shutter, kein ND. Alles iasigerecht in der Post machbar in Resolve (mehrere Methoden, “Motion Blur” im Color Tab ist die einfachste und schnellste, Vector Motion Blur mit Optical Flow in Fusion die komplizierteste und langsamste). Die BlackProMist-Filter (1/4 und 1/8) konnte ich auch komplett simulieren.

Space


Antwort von roki100:

Axel hat geschrieben:
Gestern ausgiebig getestet in der Sonne: Belichtung mit f2.0 und 1/8000 Shutter, kein ND. Alles iasigerecht in der Post machbar in Resolve (mehrere Methoden, “Motion Blur” im Color Tab ist die einfachste und schnellste, Vector Motion Blur mit Optical Flow in Fusion die komplizierteste und langsamste).
Wie rechnest Du 1/8000 Shutter mit (Vector) Motion Blur und Optical Flow auf 1/50 (bei 25fps) aus?

Space


Antwort von Axel:

roki100 hat geschrieben:
Axel hat geschrieben:
Gestern ausgiebig getestet in der Sonne: Belichtung mit f2.0 und 1/8000 Shutter, kein ND. Alles iasigerecht in der Post machbar in Resolve (mehrere Methoden, “Motion Blur” im Color Tab ist die einfachste und schnellste, Vector Motion Blur mit Optical Flow in Fusion die komplizierteste und langsamste).
Wie rechnest Du 1/8000 Shutter mit (Vector) Motion Blur und Optical Flow auf 1/50 (bei 25fps) aus?
Ehrlich gesagt gar nicht. Eine Belichtungszeit von 1/8000 s entspricht einem Shutter Angle von 1° (@ 23,98, aber ich benutze sowieso "NTSC", weil ich auf die 30p nicht verzichten will) und stoppt effektiv jede Bewegungsunschärfe. Ich schrieb "effektiv", weil dir ein Kolibri, der im Tripod-Mode über einer Blüte schwebt, was anderes sagt. Ist es exakt so, als müsste ich zu einer Animation, die ja per se keine Bewegungsunschärfe hat, diese nachträglich hinzufügen (After Effects)?

Prinzipiell schon, bloß, dass die Bilder ja schon existieren und eigentlich die Winkelgeschwindigkeit erkannt werden muss. Bei meiner für 24 B/s adäquaten Schwenkgeschwindigkeit sieht der Default "gut aus". Ich ging von folgendem Tut aus, das ich mir gebookmarkt hatte:


Würde ein Wert höher als Scale: 1.0 bei Aufnahmen von einem Kettenkarussell besser sein? Möglicherweise. Wie man schon in dem Tut sieht, gehört die zweite Methode zu denen, die man kaum in Bewegung beurteilen kann (und erst recht nicht, um auf deine frühere Frage zurückzukommen, mit M1 Mini), eine Faustregel oder echte Formel wäre also willkommen. Bei Kamerabewegung und der einfachen Motion Blur - Methode im Colortab gibt es leider zuweilen Geisterbilder.

Ich selbst bin so gut wie kadenz-agnostisch. Ich erkenne Strobo-Shutter nur in seinen Extremen (Gladiator, Private Ryan, 28 Days Later), und 1/8000 gehört natürlich dazu. Ich bin kein ND-Hasser, aber es gab in der Vergangenheit Situationen rund um diesen (leeres Filteretui mitgenommen, Vari-ND erzeugte bei der notwendigen Stufe x-förmige Vignette - und das schlimmste und in meinen Augen unverzeihlichste Phänomen: Reflexe).

Manches sieht ohne Motion Blur auch "besser" aus, z.B. Blätter im Wind. Deswegen ist es super, dass Motion Blur, wie jeder andere Corrector, keyframebar ist und ich so auf ein und denselben Clip angepasstes "Motion Grading" (James-Cameron-Thread) anwenden kann. Das ist mit normalem proportionalem Motion Blur nicht möglich.

Space


Antwort von roki100:

Axel hat geschrieben:
Vari-ND erzeugte bei der notwendigen Stufe x-förmige Vignette - und das schlimmste und in meinen Augen unverzeihlichste Phänomen: Reflexe).
wenn ich das x-förmige sehe, dann ändere ich Schutter Angle von 172.8° auf 90° (bei 23.98fps).... Reflexe habe ich bisher nicht gehabt. Ich benutze den günstigen K&F Concept VariND.

Space


Antwort von Axel:

roki100 hat geschrieben:
Axel hat geschrieben:
Vari-ND erzeugte bei der notwendigen Stufe x-förmige Vignette - und das schlimmste und in meinen Augen unverzeihlichste Phänomen: Reflexe).
wenn ich das x-förmige sehe, dann ändere ich Schutter Angle von 172.8° auf 90° (bei 23.98fps).... Reflexe habe ich bisher nicht gehabt. Ich benutze den günstigen K&F Concept VariND.
... umgekehrt, bei 270° und 360°(mit der Pocket gemacht im dunklen Lokal bei uns), da sehe ich schnell eine andere Anmutung. Das kann aussehen wie 50p, wegen der Bewegungsglätte.

Also wie gesagt, ich bin kein ND-Feind und im Großen und Ganzen nicht pingelig. Es gibt Argumente für das eine und das andere.

Space


Antwort von Axel:

Kurzes Update: die neue Version von Catalyst Browse (2022.1.0.550) unterstützt auch “Objektiv-Atemkompensation” (gemeint ist wohl Focusbreathing), weist aber darauf hin, dass kamera-interne Korrektur besser ist. Außerdem gibt es ausgegraute manuelle Eingriffsmöglichten, aber: “Der manuelle Modus und das Mindestzuschnittverhältnis sind in Catalyst Browse nicht verfügbar. Aktualisieren Sie auf Catalyst Prepare* …”. Monatlich 13,95 €? No mercy!

Aber ACHTUNG!

Was ich nicht wusste und worüber mW nie einer gesprochen hat: CB exportiert nur in 8-bit !!!

*Wie der Typ hier sagt, hat Prepare z.Zt. noch gar keine Atemkorrektur. Echt schwach, Sony!

Ich habe eben einen handgehaltenen Gang vom Treppenhaus auf den Balkon mit Tv Auto gemacht, wollte den zuerst in CB stabilisieren und später in Resolve graden und motionblurren. Siehe da: Banding im Dunkeln und im Himmelsblau.

Was wir dringend brauchen ist entweder ein Plugin für Resolve oder dass Resolve die Gyrodaten auch selbst auslesen kann.

Space


Antwort von Mediamind:

Axel hat geschrieben:
Hatte ich schon ganz am Anfang richtig gemacht:

Hallo Axel,

wie an andere Stelle schon geschrieben, nutze ich einen variablen ND mit Polfilter (Revoring). Wenn ich den Skinetone der Braut verhaue, wird es übel. Mit Zebras auf 52% mit einem Bereich von +/-2 bist du bei mitteleuropäischer Haut immer im grünen Bereich. Ich verliere lieber Highlights oder akzeptiere rauschen in den Schatten, solange der Skinetone passt. Die Zebras sollten im helleren Bereich der Haut liegen. Das Vorgehen minimiert ggf. DR, dafür sind aber die Ergebnisse in nicht kontrollierten Umgebungen so gut, wie sie eben sein können.

Space


Antwort von rush:

Frage an die Nutzer die Fotos oder auch Videos auf beide Speicherkarten parallel speichern...

Wenn ich zwischendurch Bilder betrachte kann ich ja sagen von welcher Karte... etwa Karte 1 priotisiert: lösche ich dann dort ein Bild - wird diese Löschung nicht automatisch auf Karte 2 übernommen. Das ist natürlich gut für den Fall ,das man versehentlich etwas löscht.
Andererseits finde ich es ziemlich unübersichtlich wenn dann auf Karte 1 und 2 unterschiedlich viel Material liegt.

Zugegeben: Ich lösche wenig bis selten Files direkt in der Kamera, schon gar nicht bei wichtigeren Veranstaltungen.

Dennoch meine Frage an Euch: Gibt es die Möglichkeit Löschungen auch parallel auf beiden Karten zu durchzuführen sodass diese immer denselben Inhalt beinhalten? Irgendwie habe ich das im Menü nicht gefunden.

Space


Antwort von Mediamind:

Ein gleichzeitiges Löschen ist nicht möglich. Für das Abspielen und Anschauen musst Du ja im Menü des Slot konfigurieren, es besteht keine Option beide für das Anzeigen und somit löschen zu wählen.

Space


Antwort von rush:

Dann habe ich immerhin nichts im Menü übersehen.

Hätte es ganz angenehm gefunden eine Löschung auf beiden Karten zu parallelisieren wenn man ganz bewusst verbockte Aufnahmen löscht.

Aber wahrscheinlich steht hier der Backup Gedanke im Vordergrund was ja auch okay ist.

Thx für's verifizieren - manchmal sieht man ja den Wald vor Bäumen nicht in den tiefen Menüs - aber dann ist es eben so wie es ist.

Space


Antwort von rush:

Wie sind eigentlich Eure Erfahrungen mit dem elektronischen Verschluss in der Praxis beim fotografieren an der A7s III? Ggfs und gern auch im Vergleich zur A1... einer von Euch hatte doch beide? Mediamind? pille? Habe leider vergessen wer es ist.

Habe heute für Freunde eine Veranstaltung fotografisch mit de A7sIII begleitet und aus akustischen Gründen bevorzugt bzw. ausschließlich den elektronischen Verschluss genutzt was auch wie gehabt gut funktionierte. Allerdings gab es in einem Nebenraum (offene Tür) offenbar pulsierende Lichtquellen (möglicherweise LED) die diesen typische horizontalen Streifen verursachen... glücklicherweise tangierten die mich nicht weiter da im vorderen Raum wo ich unterwegs gewesen bin stabile Lichtquellen + Tageslicht hineinkam.

An den Stellen wo ich aber den Nachbarraum durch die offene Tür etwas mit im Bild habe sehe ich im Ansatz (besonders deutlich am Türrahmen) diese pulsierende Streifenbildung die ich von der A7rII kannte - dort jedoch heftiger in Erinnerung habe und bei Kunstlicht/LED entsprechend immer den mechanischen Verschluss nutzte...

Im Einzelbild sind diese wabernden Steifen der Belichtung/"Verschlusses" auch kein großes Problem da in diesem Fall keine Menschen in der Nähe sind und das Pulsieren tatsächlich eher auf den Nachbarraum beschränkt blieb. Aber beim durchzappen einer Fotoserie fällt es halt im Hintergrund schon etwas auf - offenbar war es ein LED? Kronleuchter der in der Helligkeit variiert/pulsiert.
Alles auf den Fotomodus bezogen! Video rollte für keine Sekunde - daher kann ich nicht sagen wie es sich da verhalten hätte und ob das flackern auch da ein Problem gewesen wäre... Fotos habe ich mit Zeiten im Bereich schätzungsweise 1/30s - 1/400s gemacht. Muss ich später mal am Rechner im Detail sichten - bin eben nur über das Kamerdisplay durch die Bilder gescrollt.

Wie schlägt sich die A1 in dieser Hinsicht? Deren elektronischer Verschluss soll ja insbesondere auch pulsierenden Lichtquellen nochmal deutlich stabiler sein? Ist da was dran?
Man kann das ganze natürlich auch durch den mechanischen Verschluss komplett umgehen, aber der leise elektronische reizt mich in mancher Situation dann eben doch - aber man scheint ihn auch an de A7sIII wohl nur mit Bedacht nutzen zu können und insbesondere in komplizierten Lichtsituationen eher den mechanischen verwenden.

Im Außenbereich gab es überhaupt keine Einschränkungen - obwohl ich da aufgrund der Nebengeräusche auch eher zum mechanischen Verschluss hätte greifen können.

Die Z9 von Nikon hat ja offenbar gar keinen mechanischen Verschluss mehr an Board? Sind die Probleme solcher Lichtquellen da tatsächlich passeee? Hat da jemand Erfahrungen?

Anbei noch ein schneller Crop zum verdeutlichen: insbesondere beim Kronenleuchter im hinteren Raum, dem Sofa und Fußboden fällt ein deutlicher Unterschied in zwei sehr zeitnah aufeinander folgenden Bildern auf. Die Belichtungseinstellungen sind jeweils identisch gewesen und es kam auch nicht plötzlich mehr Sonne durch's Fenster.
DSC08724_crop.jpgDSC08725_crop.jpg

Space


Antwort von Mediamind:

Ich habe die A1, die A7SIII und die A7IV. Die A1 mit dem elektronischen Verschluss kommt auch mit stark pulsierenden LEDs klar. Das macht sie wirklich perfekt in der Anwendung. Ich nutze ausschließlich den elektronischen Shutter. Die A7SIII nehme ich selten für Stills und dann bei Kunstlicht ausschließlich mit dem mechanischen Shutter. Bei der A7IV halte ich es genau so wie mit der A7SIII. Die Z9 hat tatsächlich keinen mechanischen Verschluss. Sollte sie genaus so gut sein, wie die A1, wäre das kein Nachteil.
Der elektronische Verschluss der A1 ist insofern nice, als dass Du auch mit hohen Framerates fotografieren kannst und das nicht auf die Mechanik geht.

Space


Antwort von rush:

Auf dpreview gibt es dazu auch nochmal ein passendes Beispiel welches alle drei von Dir genannten Kameras (Ergänzung: Doch nicht - sondern es ist die A7rIV - nicht die A7IV) bei Verwendung des elektronischen Verschlusses zeigt (und auch nochmal das Ausleseverhalten aka RS vergleicht)
a67a2c05a18540b5ae04fd8d867a4877.jpeg Quelle: https://www.dpreview.com/forums/thread/4556873

Auch interessant zu beobachten wie unterschiedlich die Belichtungen trotz identischer Settings wirken - da drückt die A1 offenbar einiges an pulsierenden Licht weg und wirkt dadurch dunkler - aber eben auch fehlerfrei in Hinblick auf den Gesamteindruck des Bildes da sowohl kein Banding als auch faktisch kein Rolling Shutter bei Verwendung des elektronischen Verschlusses feststellbar ist. Den kann man bei der A1 - im Gegensatz zur A7RIV als auch A7SIII - wohl wirklich bedenkenlos nutzen.

Die A1 bleibt leider außerhalb meines Budgets.... daher Memo an mich selbst: Bei Kunstlicht wohl zur Sicherheit doch lieber wie gehabt den mechanischen Shutter verwenden.

Für Video dürfte sich ein ähnliches Bild ergeben - da dürfte die Alpha 1 wohl einige Vorteile mitbringen wenn ich das richtig deute, zumindest unter diesen beiden Punkten "Banding" bei pulsierenden Lichtquellen als auch "Rolling Shutter".

Insbesondere diese nervigen Flacker-LED's sind immer häufiger ein Problem - und da man an der A7SIII so gar nicht an den Nachkommastellen der Shutterfrequenz schrauben kann, wird das auch immer wieder störend auffallen.

Space


Antwort von Mediamind:

Die A1 ist technisch weit vorne. An anderer Stelle hatte ich ja geschrieben, dass ich bei ihr jedoch mit Moirees kämpfe. Bei der A7SIII habe dieses Problem nicht. Die A7SIII nutze ich ausschließlich mit ihren Base ISOs. Bei 12.800 hat sie klar die Nase vorne. Auch bei Stills rauscht die A1 recht schnell. Kann man die Base ISO nutzen, ist die A1 mit der richtigen Optik ein Hammer. Je nach Job, greife ich nach der für mich passenden Kombination. Stills will ich mit nichts anderem mehr machen, wobei die A7IV keinesfalls von der A1 abgeschlagen wird. Die IV leistet weniger, ist der 1 aber dicht auf den Versen. Hand aufs Herz: der Aufpreis zwischen Der IV und der A1 ist für Fotografen ohne Sportambitionen kaum zu rechtfertigen. Ich habe mit beiden Gehäusen letztes Wochenende eine Hochzeit fotografiert. Man muss schon auf Pixelebene gehen, damit man Unterschiede sieht. Wobei die AF Perfomance mir das Leben leicht macht. Wenn etwas unscharf wird, ist man selbst im Normfall die Ursache. Zu lange Belichtungszeit, verwackelt,... der AF sitzt immer da, wo man ihn hinsetzt.

Space


Antwort von rush:

Nach der A1 scheint ja auch die A7IV eine variable Shutter Funktion an Board zu haben mit der man sich in problematischen Lichtsituationen bis in die Nachkommastellen des Verschlusses besser annähern kann. Nice.

Ich trage mich weiterhin ob A7sIII Nutzer diese Funktion womöglich auch noch nachgereicht bekommen? Oder ist das technisch im alten 12MP Sensor nicht vorgesehen? Wie war das bei der FX3/FX6 - können die das?

Und dann noch eine Frage an die Nutzer die häufig mit HDMI Monitoren oder Rekordern arbeiten...

Ich hatte kürzlich im Zusammenhang mit dem Andycine C5 Monitor die Kamera mit angeschlossen Moni längere Zeit im Idle ohne Aufnahme... Leichte Sonne auf der Kamera vom Fenster her... Nach einiger Zeit ohne intern zu recorden (vllt halbe Stunde oder so - evtl auch länger) erblickte ich das Heat Symbol - dachte mir aber nichts weiter dabei... Beim nächsten Blick 15-20 min später hatte die Kamera bereits abgeschaltet und auch beim erneuten Power On kam die Meldung das die Cam abkühlen müsse.

Hatte ich bis dato tatsächlich nicht in der Form... Kann das am angeschlossen Monitor liegen? Also das die Kamera deutlich mehr zu rödeln und rechnen hat wenn der HDMI Ausgang befeuert wird und entsprechend schneller Hitze generiert?

Space


Antwort von Axel:

rush hat geschrieben:
Leichte Sonne auf der Kamera vom Fenster her... Nach einiger Zeit ohne intern zu recorden (vllt halbe Stunde oder so - evtl auch länger) erblickte ich das Heat Symbol ...
Bei den ersten beiden Überhitzungsmeldungen, noch mit Vorserienmodellen - wir einfachen User mussten im Schnitt noch vier Monate warten - durch Dan Watson und Hugh Brownstone bekamen letztere erheblich Gegenwind. Manny Ortiz hatte die Kamera im brütend heißen Chicago 10 Stunden in Betrieb und tat dies kund. Potato Jet steckte die Kamera daraufhin in einen geeichten Ofen bei 40°C (105°F), und sie lief brav bis Batterieende (~2 Stunden).

3 Blind Men & an Elephant ließ das keine Ruhe, und er fand die Gemeinsamkeit bei ihm und Watson heraus: längere ununterbrochene Sonnenbestrahlung, was auf Hitzeabsorption im feuchtigkeitsversiegelten Body schließen lässt. Derselbe schwarze Körper, der Licht in Wärme umwandelt, gibt Hitze grundsätzlich leichter ab (Ofen im Schatten, hohe Außentemperatur):

zum Bild


Space


Antwort von Mediamind:

Ich erinnere mich recht vage, dass der Elefantenmensch nachher darauf kam, dass das objektiv ein Kunststofffassungen hatte. Bei der A74 und der A1 kann man sehr gut an dem objektiv wahrnehmen, dass die Hitze über das Metall des Bajonettverschluss an das objektiv weitergeleitet wird. Beim Kunststoff Bajonett sieht es dann schon ganz anders aus. Die Ursachen für eine Überhitzung können somit vielfältig sein.

Space


Antwort von Axel:

Mediamind hat geschrieben:
Ich erinnere mich recht vage, dass der Elefantenmensch nachher darauf kam, dass das objektiv ein Kunststofffassungen hatte. Bei der A74 und der A1 kann man sehr gut an dem objektiv wahrnehmen, dass die Hitze über das Metall des Bajonettverschluss an das objektiv weitergeleitet wird. Beim Kunststoff Bajonett sieht es dann schon ganz anders aus. Die Ursachen für eine Überhitzung können somit vielfältig sein.
Definitiv. Das kam hier kürzlich auf im Zusammenhang mit Ockhams Rasiermesser, der Maxime, dass die Erklärung die wahrscheinlichste ist, die am wenigsten Voraussetzungen benötigt. Nach William von Ockham, der, wie alle Name-der-Rose-Kenner wissen, aus dem 13. Jahrhundert stammte. Da lebte der fiktive William von Baskerville, gespielt von Sean Connery, als ein mönchischer Vorläufer von Sherlock Holmes. Heute ahnen wir, dass die eleganteste Erklärung womöglich zu viele für sich genommen zu vernachlässigende Einflussfaktoren vernachlässigt. Dan Watsons Versuchsaufbau:

zum Bild

Mir fiel gleich das anthrazitfarbene Nylongewebe des Trampolins auf. So etwas hatten wir als Plane zum Abdecken eines Balkon-Springbrunnens im Haus meiner Eltern. Nichts wurde so heiß wie diese Oberfläche, sogar nicht die große Fontänendüse aus verchromtem Messing.
Dann freilich das auf dem Kopf stehende Sony-Logo am Display-Rand, das auf das Vorserienmodell verweist.
Und ja, ich hatte auch was im Hinterkopf von einer neuen billigen Samyang-Linse, die den blinden Männern zufolge erstaunlich gut war.
Trotzdem klingt Sonnenbestrahlung als Haupt-Hitzefaktor noch recht plausibel. Dan Watson lebt in Florida, das Video wurde Ende Juli 2020 eingestellt, und nach den Schatten zu urteilen ist es Mittag. Schätze, das heißt schon was.

rush sagte nicht, ob er AUTO POWER OFF Temp. (Menu Seite 51/55) auf STANDARD oder HIGH stehen hatte.
Das klingt nach einer doch zu unwahrscheinlichen Erklärung? Mag sein, ich stellte gerade fest, dass es bei mir auf STANDARD stand. Und ich hatte noch nie eine Überhitzungswarnung. Auch nicht vor etwa 14 Tagen, als ich mich kaputtschwitzte, derweil ich zum ersten Mal den dritten Akku benutzte ...
rush hat geschrieben:
Kann das am angeschlossen Monitor liegen? Also das die Kamera deutlich mehr zu rödeln und rechnen hat wenn der HDMI Ausgang befeuert wird und entsprechend schneller Hitze generiert?
Wer weiß?

Space


Antwort von rush:

Axel hat geschrieben:

Mir fiel gleich das anthrazitfarbene Nylongewebe des Trampolins auf.
Dann freilich das auf dem Kopf stehende Sony-Logo am Display-Rand, das auf das Vorserienmodell verweist.
Verrückt - wieder was gelernt mit dem Sony Logo... hatte mir da tatsächlich nie Gedanken drüber gemacht wo/wie das Logo steht und musste soeben erstmal nachsehen das da gar keines ist :-D Interessanter und spannender Hinweis das man daran bereits ein Vorserienmodell erkennt... ist das bei Sony häufiger der Fall mit solchen Details?
Axel hat geschrieben:

rush sagte nicht, ob er AUTO POWER OFF Temp. (Menu Seite 51/55) auf STANDARD oder HIGH stehen hatte.
Das klingt nach einer doch zu unwahrscheinlichen Erklärung? Mag sein, ich stellte gerade fest, dass es bei mir auf STANDARD stand. Und ich hatte noch nie eine Überhitzungswarnung. Auch nicht vor etwa 14 Tagen, als ich mich kaputtschwitzte, derweil ich zum ersten Mal den dritten Akku benutzte ...
Tatsächlich habe ich es auch auf "STANDARD" stehen... irgendwann mal bewusst so gesetzt. Bisher gab es dahingehend ja auch nie Auffälligkeiten an meinem Modell bis zum Tag x an dem ein Monitor respektive Videosender längere Zeit per HDMI aus der Kamera befeuert wurde... und ich entsprechend daher einen Zusammenhang herleiten würde als Theorie.

Zur Objektivtheorie zwecks nicht-Metall-Fassung... es war das 17-28er Tamron mit Metall-Bajonett montiert.

Kamera stand auch auf dem Tisch - vllt. hätte sie untenrum gern mehr Abwärme abgegeben als es möglich war.

Ich mache das auch nicht wirklich zum Thema oder Problem - wollte nur berichten das es auch bei der A7sIII durchaus zu einer Abschaltung kommen kann (wenn sie auf Standard im "Auto Power Off" Menü steht...)

An die FX3/FX6ler... Haben jene Modelle die variable shutter Funktion an Board, oder auch nicht?

Space


Antwort von klusterdegenerierung:

rush hat geschrieben:
An die FX3/FX6ler... Haben jene Modelle die variable shutter Funktion an Board, oder auch nicht?
Bin mir nicht ganz sicher, da ich immer auf Angle stehen habe, aber ich meine ja, muß ich noch mal nachsehen.
Ich meine das mein alter Sony NX5 Camcorder das damals schon stufenlos konnte, oder was meintest Du?

Space


Antwort von rush:

Ich meine auch einen Verstellbereich des Shutter bis in die Nachkommastellen... Kenne das von so ziemlich allen Broadcast Mühlen und teilweise auch Semi/Pro Henkelmännern um sich etwa einer flackerndern Bildschirm-Frequenz anzunähern.

Beim Video zur A7IV zeigt es Gerald ganz kurz und man sieht den variablen Shutter am unteren Bildrand.

https://youtu.be/d9GHftTU7fE?t=250

Das wäre mein Feature-Update Wunsch für die A7s III - aber ich weiß eben nicht ob es technologisch möglich ist am "alten" 12MP Sensor oder das nur an den neuen Bodys wie A1 und A7IV vorbehalten ist... wäre schade.

Daher hat mich interessiert ob dieses Feature bei der FX3/FX6 vorhanden ist.

Space


Antwort von rush:

Auch die A7S III bekommt ein neues Firmware Update (V2.11) spendiert - im Gegensatz zur FX3 aber leider ohne eine einzige technische Neuerung... boring.

https://www.sony.com/electronics/suppor ... /downloads

Habe mir gestern auch das Interview von Nino Leitner auf der IBC 2022 mit dem Manager der Sony Cine Sparte angehört.... Nino versucht ihn 1-2x explizit auf die Relevanz der A7SIII zu triggern - aber gefühlt kommt da überhaupt nichts sondern eher nur Floskeln ala "wenn die Kunden das wünschen, kümmern wir uns ggfs. darum".

Mein Gefühl ist eher das sie die A7SIII jetzt noch klarer dem Consumer Bereich zuordnen und maximal homöopathisch pflegen, während die FX3 im Cine Segment einsortiert wurde und entsprechend mehr Support als auch Features bekommen wird.

Ist nur meine steile These und entbehrt natürlich jeglicher Grundlage - aber ein Update welches allein die "Gesamtstabilität" der Kamera verbessert empfinde ich schon etwas enttäuschend - auch wenn ich es von Sony kaum anders kenne.

Falls es jemanden interessiert verlinke ich das Interview hier... Irgendwann im mittleren Teil geht es dann auch um die A7SIII.



Space


Antwort von Axel:

Die A7SIII ist zwei Jahre alt und damit vintage. Da kommen keine Funktionen mehr dazu. Sony schwingt nicht den Krüppelhammer, aber sie übertreiben’s auch nicht mit der Produktpflege.

Space


Antwort von Axel:

Obwohl hier für mich nichts Neues gezeigt wird, mag ich den Kanal, und es wird schön gezeigt:

Außerdem hatte ich das Gefühl, dass mein Posting weiter oben so grabsteinmäßig rüberkam.

Space


Antwort von roki100:

Axel hat geschrieben:
Obwohl hier für mich nichts Neues gezeigt wird, mag ich den Kanal, und es wird schön gezeigt:

Außerdem hatte ich das Gefühl, dass mein Posting weiter oben so grabsteinmäßig rüberkam.
Danke. Schöne Bilder.
Er zeigt schon ein paar gute Gimbal schwenks und andere tipps auch in seine anderen Videos.

Space


Antwort von cantsin:

roki100 hat geschrieben:
Er zeigt schon ein paar gute Gimbal schwenks und andere tipps auch in seine anderen Videos.
Man muss aber auch ganz klar sagen, dass man diese Gimbal-Moves nur mit einer Sony- oder Canon-Kamera hinkriegt. (Mit jeder anderen Kamera nur dann, wenn ein remote follow focus am Objektiv sitzt + ein Weltklasse-Focus Puller neben der Kameraperson.)

Space


Antwort von Mediamind:

Neben dem sehr netten Modell in der Tat eine gute Zusammenfassung. Die Geschwindigkeit des AF habe ich bisher bei Slowmo nie angepasst. Werde ich künftig berücksichtigen. Meine Szenarien sind allerdings auch zumeist simpler. Legt Ihre Eure Settings für den AF auf Tasten, das Smartmenü, Custommenü oder lasst Ihr sie da wo sie sind?

Space


Antwort von Axel:

Mediamind hat geschrieben:
Legt Ihre Eure Settings für den AF auf Tasten, das Smartmenü, Custommenü oder lasst Ihr sie da wo sie sind?
Mein Video-Kumpel hat sie letztes WE geliehen, und ich habe ihm auf eingeschweißtem DIN A6 auf Vorder- und Rückseite einen Quickstart mitgegeben:

zum Bild


zum Bild

Ab und zu ändere ich Kleinigkeiten. Aber so ungefähr sieht's bei mir aus.

Space


Antwort von Axel:

Zu den Kleinigkeiten, die ich ändere, gehört wohl XAVC-I:

Auch interessant für FX30/FX3/FX6-Nutzer.

… und ein Hinweis darauf, dass wohl bei der Netflix-Weihe Schmuh im Spiel war, als es hieß: All-I.

Space


Antwort von klusterdegenerierung:

@Axel,
da lässt Du Dich aber echt verrückt machen!

Völliger blödsin und keine Ahnung was der Dude da gemacht hat, aber ich behaupte das ist bullshit und wenn mein Material soo aussehen würde, ginge meine Kamera die zurück zu Sony.

Da meint wieder einer er hätte irgendwas endeckt und alle hypen das ohne Sinn und verstand!
Das kannst Du getrost ignorieren!

Space


Antwort von rush:

@Axel... Ich dachte Du bist sowieso in 4k HEVC mit GOP, sprich XAVC HS unterwegs?

Ich nutze das privat ausschließlich und habe XAVC-S-I schon länger keine Beachtung mehr geschenkt, da HEVC nicht nur platzsparend ist, sondern an modernen Systemen genauso flutscht - und ich visuell bisher auch keine Auffälligkeiten festgestellt habe die mich zu S-I drängen würden.

Wenn ich was abliefern muss, dann ist das gewünschte Format gar nur murkeliges XAVC S in HD...

Für alles andere kommt bei mir ansonsten konsequent XAVC HS @4k in 50p oder bei Bedarf 100p zum Einsatz. 25p ist ja leider nicht vorgesehen... Das wäre für mich dann der Grund Mal auf XAVC-S-I umzuschalten.

Ich glaube auch das proAV seinerzeit einen Vergleich (bei nicht bewegten Bildern) gemacht hatten und codecmäßig alle 10Bit Derivate der Sony's ziemlich solide ablieferten.

Space


Antwort von klusterdegenerierung:

@Tom
Gucke mal, hier sieht man die Zeit, Datum, Timecode etc.
Vermisst Du da jetzt noch was, oder hab ich Dich falsch verstanden?

Space


Antwort von Axel:

@kluster
@rush
Ihr habt sicher Recht. Ich werde selbst testen. Als Nicht-Profi, Nicht-Speicherkarten-Sparfuchs, Nicht-Pixelpeeper und Kadenz-Agnostiker, der NTSC-Frameraten verwendet (nur weil es in PAL kein 29,98 gibt), könnte ich HS nochmal probieren.
@roki
Dein Chroma-Entrauscher (extra Thread) gefällt mir wegen des DIY-Aspekts mit Motion. Ich habe nur den Verdacht, alle Vorteile von PRAW schmelzen dahin, wenn man die Nachteile getilgt hat. Wahrscheinlich landest du Pi mal Daumen da, was man mit Sonys mit XAVC unter Vermeidung von verrauschten Tiefen ganz ohne Verrenkungen bekommt.

Space


Antwort von roki100:

Chroma-NR für PRRAW, ist eigentlich dafür gedacht, wenn man höhere ISO Werte nutzt (und das was danach übrig bleibt, sieht nach Filmkorn aus - das ist auch das Ziel des DIY-Aspekts mit Motion gewesen... ;) Man soll aber mM. mit höhere ISO Werten nicht übertreiben). Für native ISO ist das nicht nötig (zumindest bei S5 nicht). Ist das bei Sony anders? Ist bei PRRAW Farbraschen bei native ISOs zu sehen?

Space


Antwort von pillepalle:

Geht mir genauso. Ist zwar eine andere Kamera aber denoisen muss ich PRAW eigentlich nie. Eben nur wenn man die ISO richtig hoch dreht bzw sehr stark unterbelichtet. Da wo ich einen schnellen Turnarround brauche, filme ich aus praktischen Gründen oft in 10 Bit, aber die 12 Bit sieht man beim Editing irgendwie schon. Man bekommt gefühlt intensivere Farben, auch wenn ich die oft nacher wieder herunter drehe. Aber ich arbeite in RAW preinzipiell auch etwas anders und nutze da fast nie LUTs, sondern drehe mir alles von Hand zurecht.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
Aber ich arbeite in RAW preinzipiell auch etwas anders und nutze da fast nie LUTs, sondern drehe mir alles von Hand zurecht.
Auch nicht mit conversion LUT von Kamerahersteller (in deinem Fall Nikon)? Also so etwas wie zB. von Panasonic https://av.jpn.support.panasonic.com/su ... index.html damit finde ich das Ergebnis definitiv besser.

Space


Antwort von pillepalle:

@ roki

Nee. Ich kann auch nicht behaupten das es damit besser aussähe. Einfach die richtigen Einstellungen für's Quellmaterial wählen (bei den Nikons REC2020 und N-Log). Die Panasonic LUTs funktionieren aber auch mit der Nikon halbwegs :) Sind dann etwas weicher und ein paar Farben (z.B. Rot) sind etwas anders, aber gar nicht sooo übel. Aber ich wandele das RAW ja ohnehin in Assimilate erstmal in ProRes4444 um.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
(z.B. Rot) sind etwas anders, aber gar nicht sooo übel.
Genau das, wenn man LUT V-Log/V-Gamut conversion benutzt... Du meinst aber nur die normale LUT bzw. VLOG zu Rec709?

Space


Antwort von pillepalle:

@ roki

Ja, die normale. Man kann ja spaßeshalber auch mal andere LUTs auf Nikon Dateien ausprobieren. LUTs sind praktisch, aber von den Socken hauen die mich ehrlich gesagt nicht. Zumindest die Nikon LUT ist eher nicht mein Ding. Da muss ich auch nachträglich immer nochmal dran drehen, damit es mir gefällt. Von Hand dauert eben ein wenig länger und man muss stärker an den Kurven drehen und vor allem wissen woran man dreht. Wer da keinen Spaß dran hat, der ist mit einer LUT sicher besser bedient.

VG

Space


Antwort von roki100:

pillepalle hat geschrieben:
@ roki

Ja, die normale. Man kann ja spaßeshalber auch mal andere LUTs auf Nikon Dateien ausprobieren. LUTs sind praktisch, aber von den Socken hauen die mich ehrlich gesagt nicht.
LOG zu Rec709 bedeutet doch eigentlich sowas wie S-Curve und vll. weitere Korrekturen für die Farbgenauigkeit...

Wenn es um LUTs, im Sinne von Looks, geht, dann sind einige dabei, die hauen mich schon von den Socken, wie zB. "M31" :)

Space


Antwort von pillepalle:

Bei Nikon aber irgendwie nicht nur S-Kurve. Da verändern sich auch die Farben noch etwas. Viele meiner Motive sind auch etwas zu konstrastreich für die Nikon LUT. Die funktioniert nur bei recht konstrastarmen Motiven auf Anhieb gut. Deshalb arbeite ich lieber gleich von Hand, als erst eine LUT drauf zu knallen und sie dann doch wieder zu verändern. Wenn es zeitlich nicht pressiert. Das macht eben jeder so, wie's ihm in den Kram passt.

VG

Space


Antwort von rush:

Leute - nicht zu sehr abdriften, das ist hier prinzipiell noch der A7SIII Thread ;-)

Space


Antwort von roki100:

Axel hat geschrieben:
Zu den Kleinigkeiten, die ich ändere, gehört wohl XAVC-I:

Auch interessant für FX30/FX3/FX6-Nutzer.

… und ein Hinweis darauf, dass wohl bei der Netflix-Weihe Schmuh im Spiel war, als es hieß: All-I.
ich finde es gut, dass Du ehrlich bist und nicht so wie manch andere BMD, Fuji, Nikon, Panasonic, Sony ...-Liebhaber, die die kritische Dinge am liebsten gar nicht erwähnen wollen, weil sie gewählte Kameramarke so lieben wie Jesus den Nächsten.

Space


Antwort von Axel:

rush hat geschrieben:
@Axel... Ich dachte Du bist sowieso in 4k HEVC mit GOP, sprich XAVC HS unterwegs?

Ich nutze das privat ausschließlich und habe XAVC-S-I schon länger keine Beachtung mehr geschenkt, da HEVC nicht nur platzsparend ist, sondern an modernen Systemen genauso flutscht - und ich visuell bisher auch keine Auffälligkeiten festgestellt habe die mich zu S-I drängen würden.
Nein, ich hatte kein HEVC getestet, nachdem in den ersten Wochen nach Erscheinen der A7S3 F-Stoppers Kompressionsartefakte fand. Und weil ich wie gesagt die anderen Datenraten (bzw. die Kosten für die Speicherkarten) nicht so furchtbar fand.

Ich habe die letzten drei Stunden mit Tests auf der Terrasse und anschließend am Rechner verbracht. All-I vs. Long-GOP vs HEVC. Bei 500% Vergrößerung sehe ich in der Tat sehr feine Unterschiede. So fein, dass ich das 45 Sekunden lange Youtube-Video, das ich hochgeladen habe, nun mit Rücksicht auf Funless (es enthält unheimlich starrende Katzen) nicht verlinke, weil es nach dem Processing nicht mehr aussagekräftig ist. Merkwürdigerweise sieht hier All-I und HEVC ziemlich gleich aus, nämlich in einer Hinsicht einen kleinen Ticken besser als Long-GOP a.k.a. XAVC-S. Und zwar, weil letzteres ein bisschen kantengeschärft aussieht. Das, obwohl im für alle gleichen PP8 Detail auf "-7" steht.

Es gibt zwei kleine Probleme, die ich mit dem HEVC habe. Das erste ist, es gibt auch in NTSC kein 30p, nur 24, 60 und 120. Und dann warnt die Kamera bei der Version 10-bit 4:2:2 schon, dass das eventuell nicht überall geschmiert läuft. Tut es dann auch in FCP zu meinem großen Erstaunen nicht so ganz. Es werden ausgelassene Bilder gemeldet, und wenn ich die Warnung wegschalte, läuft es zwar, aber ich bilde mir ein, dass es tatsächlich ruckelt. 10-bit 4:2:0 läuft völlig butterweich, aber ist eben schlechteres Chroma-Sampling. Vielleicht hast du da einen Tip.
pillepalle hat geschrieben:
Geht mir genauso. Ist zwar eine andere Kamera aber denoisen muss ich PRAW eigentlich nie. Eben nur wenn man die ISO richtig hoch dreht bzw sehr stark unterbelichtet. Da wo ich einen schnellen Turnarround brauche, filme ich aus praktischen Gründen oft in 10 Bit, aber die 12 Bit sieht man beim Editing irgendwie schon. Man bekommt gefühlt intensivere Farben, auch wenn ich die oft nacher wieder herunter drehe. Aber ich arbeite in RAW preinzipiell auch etwas anders und nutze da fast nie LUTs, sondern drehe mir alles von Hand zurecht.
Das mit den Farben betrifft wohl vor allem das slashCAM-Buzzword >Bearbeitungsspielraum<. Und weiter das, was cantsin mal irgendwo kürzlich geschrieben hat, dass Farbtemperaturangleichungen präziser werden bei höherer Farbtiefe. Oder anders ausgedrückt, was uns alle scharf macht ist der Farbkontrast, und der ist sehr oft ein Lichtfarben-Kontrast, sprich ein Mix aus unterschiedlichen Farbtemperaturen. Ich würde gerne mit 12 bit filmen. 12 bit sind besser als 10 bit, und 10 bit sind besser als 8 bit. Nur wenn ich an den zusätzlichen Aufwand denke, bescheide ich mich gerne mit 10.

Space


Antwort von roki100:

Axel hat geschrieben:
Nur wenn ich an den zusätzlichen Aufwand denke, bescheide ich mich gerne mit 10.
Ich bin auch mit 10Bit zufrieden, aber was den Mehraufwand angeht, weiß ich nicht, was du genau meinst. Der einzige zusätzliche Aufwand wäre, einen ext. Recorder oben dran zu montieren und HDMI Kabel anschließen. In der Nachbearbeitung ist der Aufwand auch nicht viel anders...man hat nur ein wenig mehr Spielraum in den Highlights, Farben... und eben die Vorteile von nicht eingebackenem WB, ISO.

Space


Antwort von Axel:

roki100 hat geschrieben:
Axel hat geschrieben:
Nur wenn ich an den zusätzlichen Aufwand denke, bescheide ich mich gerne mit 10.
Ich bin auch mit 10Bit zufrieden, aber was den Mehraufwand angeht, weiß ich nicht, was du genau meinst. Der einzige zusätzliche Aufwand wäre, einen ext. Recorder oben dran zu montieren und HDMI Kabel anschließen. In der Nachbearbeitung ist der Aufwand auch nicht viel anders...man hat nur ein wenig mehr Spielraum in den Highlights, Farben... und eben die Vorteile von nicht eingebackenem WB, ISO.
Naja, einen Ninja V zu montieren ist eine Geschichte, auf FCP beschränkt zu sein eine andere. Bekanntlich bin ich FCP-Fan. Aber ich bin für Farbbearbeitung auch Resolve-Fan. Es mag an mir liegen, aber ich kriege sicher einen besseren Farbkontrast und eine bessere Kontrast-Balance (WB, ISO) mit 10 bit - Footage in Resolve hin als ich es mit PRAW in FCP kriegte. Und da fängt's erst an. In der Reihenfolge ihrer Bedeutung für mich: Node-Workflow, bessere Compare-Funktion(en), intuitiv und schnell cloud-trackbare Powerwindows für Relighting, magische, wirklich magische Magic Mask, Blur,- Sharpen,- Texture-Tools, Motionblur, De-Flicker, De-Noise (mit Chroma-Luma-Trennung, falls gewünscht), besseres Keyframe-Handling, usw., usw.

Space


Antwort von roki100:

Gut, das ist natürlich eine andere Sache. Ich bevorzuge auch DaVinci, wegen Node-Logik. Ist teilweise aber auch nur Gewöhnungssache.

Space


Antwort von rush:

Axel hat geschrieben:

Es gibt zwei kleine Probleme, die ich mit dem HEVC habe. Das erste ist, es gibt auch in NTSC kein 30p, nur 24, 60 und 120. Und dann warnt die Kamera bei der Version 10-bit 4:2:2 schon, dass das eventuell nicht überall geschmiert läuft. Tut es dann auch in FCP zu meinem großen Erstaunen nicht so ganz. Es werden ausgelassene Bilder gemeldet, und wenn ich die Warnung wegschalte, läuft es zwar, aber ich bilde mir ein, dass es tatsächlich ruckelt. 10-bit 4:2:0 läuft völlig butterweich, aber ist eben schlechteres Chroma-Sampling. Vielleicht hast du da einen Tip.
30p nutze ich tatsächlich nicht - ich vermisse aber wiederum gelegentlich 25p @ HEVC.

Die Kamera warnt, weil insbesondere 10bit 422 HEVC tatsächlich nicht auf allen Plattformen flutscht - wohl aber auf den neueren M1ern von Mac nach meiner Erfahrung.
Zumindest läuft bei mir auf dem Air M1 das XAVC HS 422 10bit 50p Material in Resolve flüssig und ohne Dropped Frames wenn man es "nackend" auf die Timeline wirft. Und aufgrund der kleineren Dateigröße gegenüber XAVC-S-I funzt das bei mir sogar "over the air" vom per Wifi6 angebundenen NAS auf dem die Videodateien liegen.

Space


Antwort von Axel:

Es gibt ja auch schon einen fast 17 Minuten langen Lobgesang auf dieses Objektiv von Brandon Li, My favorite filmmaking lens. Gilt auch für mich. Dylan John hat auch ein Video dazu gemacht:


Space


Antwort von klusterdegenerierung:

Ich würde mir eher dieses kaufen und die Differenz evtl. in den Sony Audio Handgriff stecken. :-)



Space


Antwort von Axel:

Wird ja immer gesagt „für Video“. Für Video würde ich die GM-Version nicht haben wollen, zu teuer, zu unnötig schwer und mit recht starkem Focusbreathing (für dich ja irrelevant), außerdem mit klinischer Schärfe. Insgesamt arbeitet das Viltrox wohl “good” (müsste es nicht “well” heißen?). Wenn du aber das Objektiv als Brennweite für alles nimmst, das du nimmst, wenn du nur eines nehmen könntest, ist die Naheinstellungsgrenze halt der Nachteil.

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
(für dich ja irrelevant)
Weil?

Space


Antwort von Axel:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:
(für dich ja irrelevant)
Weil?
Korrigiert die FX30 doch. Aber du meinst die FX6?

Space


Antwort von klusterdegenerierung:

Axel hat geschrieben:
klusterdegenerierung hat geschrieben:

Weil?
Korrigiert die FX30 doch. Aber du meinst die FX6?
Ich weiß leider garnicht wovon Du redest.

Space


Antwort von Alex:

klusterdegenerierung hat geschrieben:
Axel hat geschrieben:


Korrigiert die FX30 doch. Aber du meinst die FX6?
Ich weiß leider garnicht wovon Du redest.
Axel meint wohl die Lens Breathing Compensation der FX30.

Space


Antwort von klusterdegenerierung:

Ich hätte da eher ein Problem mit der mangelnden Schärfe bei offen, aber klar LBC haben beide Cams.

Space


Antwort von Mediamind:

Anfangs hatte ich mit der A7SIII mit ISO unterhalb der 1. nativen Iso experimentiert. Habe es dann aber dran gegeben und mich um eine bessere ND-Lösung bemüht. Gerald arbeitet das Thema gründlich auf. Lohnt sich:



Space


Antwort von Axel:

Hier (Timestamp) maßregelt er Peter Lindgren dafür. Die gesamte Folge ist recht lustig.
https://youtu.be/9z0lc8wdpXE?t=361

Space


Antwort von rush:

Ein paar von Euch nutzen ja hin und wieder den XLR-K3M Adapter für Audio Inputs oder auch kleine Funksysteme wie das Rode Wireless GO2 direkt in der Kamera.

Meine Frage zielt eher in Richtung Monitoring der Spuren ab - etwa beim Routing des Originalton auf Tonkanal 1 sowie Atmosphäre auf Kanal 2.

Stöpsel ich nun Kopfhörer in die Kamera - habe ich immer auch den Originalton links auf dem Ohr - die Atmosphäre dümpelt rechts vor sich hin.

Ich habe bisher keine Funktion gefunden die Signale kopfhörerseitig jeweils auf L+R zu routen, sodass man einen "Mono"-Mix aus Ch1+Ch2 auf beiden Ohren hat - was ich sehr viel angenehmer empfinden würde.

Bei Einsatz des 4Ch Modus via XLR-K3M kann man ja im Menü immerhin einige Abhörpunkte auswählen und bspw. konstant Spur 1 (CH1+CH1) abhören was in diesem Fall hilft wenn CH1 der relevante Tonkanal ist. Im "Analog" respektive Digital 2CH Modus kann man das dagegen irgendwie gar nicht einstellen - oder übersehe ich da was?
Gibt es tatsächlich keine summierte L+R Abhöroption?

Jetzt wieder irgendwie mit diversen Adaptern rumzuwurschteln ist ja auch nicht wirklich befriedigend - und mit den vorhandenen habe ich es bisher auch nicht so ganz hinbekommen einen L+R Mix auf meine Kopfhörer zu bekommen.

Und Bonusfrage: Wie ist die FX6 dahingehend aufgestellt - einige von Euch nutzen diese ja auch...

Space


Antwort von klusterdegenerierung:

rush hat geschrieben:
Und Bonusfrage: Wie ist die FX6 dahingehend aufgestellt - einige von Euch nutzen diese ja auch...
Hilft das?

Space


Antwort von rush:

Danke für das Bild!
"Mix All" wäre wohl das was ich suche, alternativ die Mono-Schaltung der Ausgangsbuchse.

Beides scheint die 7SIII leider nicht zu haben.

Space


Antwort von klusterdegenerierung:

rush hat geschrieben:
Danke für das Bild!
"Mix All" wäre wohl das was ich suche, alternativ die Mono-Schaltung der Ausgangsbuchse.

Beides scheint die 7SIII leider nicht zu haben.
Ja und wahrscheinlich die ability die Buchse Mono zu schalten, oder?

Space


Antwort von rush:

Beides ist wie erwähnt nicht vorhanden/nicht wählbar.

Einzig bei Verwendung des XLR-K3M in Kombination mit dem 4 Kanal Digital Audio Modus hat man folgende Optionen:
Screenshot_2023-01-25-08-23-17-26_e4424258c8b8649f6e67d283a50a2cbc.jpg Das hilft also im Eingangs erwähnten Szenario wenn nur auf einer Spur relevanter Ton ist um diesen von etwa Ch1 auf L+R zu mixen - aber warum es keine generelle Mix Funktion gibt so wie sie im Manual der FX6 beschrieben ist, bleibt schleierhaft.

Besonders wenn man gelegentlich mit nur einer Kopfhörerseite abhört um noch etwas Umwelt mitzubekommen ist das durchaus ein Manko wie ich finde.

Space


Antwort von rush:

Wie schützt ihr Eure A7SIII bei Regen?
Insbesondere wenn der XLR-K3M Tonadapter nebst Atmo-Mikrofon montiert ist...? Gibt es elegantere Lösungen als die obligatorische Tüte?

Space


Antwort von pillepalle:

rush hat geschrieben:
nebst Atmo-Mikrofon montiert ist...?
Ich hab' bei richtigem Regen noch nie gefilmt, immer nur die Kamera bei Regengüssen abgedeckt.

Gegen Regengeräusche am Mikrofon hat sich hogs hair bewährt. Ein Filtermaterial aus Kunstfaser das die Regentropfen bricht und damit das Plätschern mindert. Das tut die Deadcat zwar auch, saugt sich ohne Regenschutz aber schnell voll. Unter den Filter kann man dann etwas Wasserabweisendes legen und ggf den Filter imprägnieren. Das nutzt man auch wenn man z.B. Ton im Regen aufnimmt, um Plätschergeräusche auf harten Oberflächen zu reduzieren.





Z.B sowas.
https://www.amazon.com/-/de/dp/B09ZVKTQ ... 066&sr=8-2

VG

Space


Antwort von rush:

Ton (Kamera-Atmo) wäre für mich in dem Fall sekundär... Primär-Ton käme separat oder halt via (Funk)-Summe in den XLR-K3M

Daher würden mich in erster Linie Lösungen interessieren die Feuchtigkeit abhalten/das Equipment schützen wenn man mit den kleinen Hobeln nebst XLR-K3M mehrere Stunden im Dauerregen unterwegs ist. Getapte Tüte geht iwie immer - wirklich schön isses aber nicht.

Space


Antwort von TomStg:

Schutz für mehrere Stunden im Dauerregen bereit zur Aufnahme? Scheint mir ein extrem seltenes Szenario zu sein.

Aber bei kurzen Takes in Irland im Regen mit vollständig aufgeregter Kamera hat mir hat schon oft ein genügend großer Regenschirm geholfen - entweder gehalten von einer Begleitpersonen oder fest am Stativ montiert wie bei einem Golfschirm. Genügend groß bedeutet, dass auch bei moderatem Seitenwind Regentropfen zuverlässig von der Kamera ferngehalten werden.

Space


Antwort von Pianist:

TomStg hat geschrieben:
Schutz für mehrere Stunden im Dauerregen bereit zur Aufnahme? Scheint mir ein extrem seltenes Szenario zu sein.
Ach, da fallen mir schon einige Situationen ein: Du wartest irgendwo auf einer Brücke mit Blick auf ein Industriegelände und weißt nicht ganz genau, wann der Schornstein gesprengt wird. Oder Du stehst vor dem Kanzleramt und weißt nicht, wann die Nachtsitzung des Koalitionsausschusses beendet ist.

Matthias

Space


Antwort von rush:

TomStg hat geschrieben:
Schutz für mehrere Stunden im Dauerregen bereit zur Aufnahme? Scheint mir ein extrem seltenes Szenario zu sein.
Ob 1h Dauerregen oder 4h mittelstarker Regen - das Problem bleibt bestehen.

Jegliche Drehs in der Natur, Sportveranstaltungen, Events sowie entsprechende Termine wie Matthias sie anspricht - bei denen man eben keinen Einfluss auf's Wetter hat - erfordern hin und wieder einen möglichst "mobilen" Regenschutz.

Schirm am Stativ wäre daher in vielen Fällen keine Option, zweite Person ebenfalls nicht immer am Start.

Space


Antwort von TomStg:

rush hat geschrieben:
Ob 1h Dauerregen oder 4h mittelstarker Regen - das Problem bleibt bestehen.

Jegliche Drehs in der Natur, Sportveranstaltungen, Events sowie entsprechende Termine wie Matthias sie anspricht - bei denen man eben keinen Einfluss auf's Wetter hat - erfordern hin und wieder einen möglichst "mobilen" Regenschutz.
Du denkst Dir Ausnahmesituationen aus, die es im realen Leben nur sehr selten gibt. Denn jeder vermeidet, wenn es irgendwie geht, bei Regen zu filmen. Denn solche Bilder sehen einfach nur sehr bescheiden aus.

Natur- und Tierfilmer arbeiten so, wie Du denkst, grundsätzlich nicht. Bei Sportveranstaltungen, die einen Live-Bericht im Regen rechtfertigen würden, gibt es reichlich Unterstellmöglichkeiten. Allenfalls ein paar Events oder unbestimmbare Politiker-Statements würden einen gewissen Bedarf nach Deinen Anforderungen rechtfertigen. Dazu besorgt man sich eben einen Schirmhalter oder Schirmhalterin.

Space


Antwort von rush:

TomStg hat geschrieben:

Du denkst Dir Ausnahmesituationen aus, die es im realen Leben nur sehr selten gibt. Denn jeder vermeidet, wenn es irgendwie geht, bei Regen zu filmen. Denn solche Bilder sehen einfach nur sehr bescheiden aus.

Natur- und Tierfilmer arbeiten so, wie Du denkst, grundsätzlich nicht. Bei Sportveranstaltungen, die einen Live-Bericht im Regen rechtfertigen würden, gibt es reichlich Unterstellmöglichkeiten. Allenfalls ein paar Events oder unbestimmbare Politiker-Statements würden einen gewissen Bedarf nach Deinen Anforderungen rechtfertigen. Dazu besorgt man sich eben einen Schirmhalter oder Schirmhalterin.

Sorry - aber da muss ich Dir vehement widersprechen.
Heute wird bei vielen Produktionen nicht mehr auf das Wetter Rücksicht genommen und auch bei Outdoor-Veranstaltungen (Stichwort z.b. Wintersport oder auch große Events wo du mit Moderator/Prota durch die Gegend dackelst) gibt es häufig überhaupt keine Möglichkeiten sich unterzustellen.

Gute "Fotopositionen" bieten zudem selten ideale Bedingungen für Teams - da steht man halt einfach dem Wetter ausgesetzt, egal ob Regen oder Schnee.

Das sind reale Praxiserfahrungen und keine Ausnahmesituationen. Größeren Mühlen ala FX6 oder auch klassische ENGs kommen dann einfach unter die Haube - bei den kleinen wird's dann leider etwas fummelig.

Wenn du noch Lösungen hast gern her damit - aber von nicht realen Situationen zu sprechen bringt die Diskussion / Lösungssuche hier nicht voran.

Wenn sowas bei dir nicht vorkommt, prima - deswegen aber bitte nicht automatisch auf alle anderen schließen!

Space


Antwort von Pianist:

Ja, da schließe ich mich voll und ganz an. Alles, was im weitesten Sinne mit aktueller Berichterstattung zu tun hat, nimmt eben auf das Wetter keine Rücksicht. Gerade wenn Dinge nur ein einziges Mal stattfinden, muss man sie eben dann filmen, wenn sie passieren - egal, wie dann gerade das Wetter ist.

Matthias

Space


Antwort von Mediamind:

Ich habe für solche Zwecke einen Regenschirm, der am Rucksack befestigt wird. Damit hat man die Hände frei. Für Sturm ist das aber auch keine Lösung, ich wünschte mir hier auch etwas, was robust ist und trotzdem noch den Zugriff auf alle Knöpfe zulässt.
Wen es interessiert, das hier ist meine Schwachwindlösung:

https://www.baur.de/p/euroschirm-trekki ... u=504381-0

Space


Antwort von Axel:

TomStg hat geschrieben:
Denn jeder vermeidet, wenn es irgendwie geht, bei Regen zu filmen. Denn solche Bilder sehen einfach nur sehr bescheiden aus.
https://youtu.be/xbW8kRZTuoI?t=101

Space


Antwort von Alex:

TomStg hat geschrieben:
Du denkst Dir Ausnahmesituationen aus, die es im realen Leben nur sehr selten gibt. Denn jeder vermeidet, wenn es irgendwie geht, bei Regen zu filmen. Denn solche Bilder sehen einfach nur sehr bescheiden aus.

Natur- und Tierfilmer arbeiten so, wie Du denkst, grundsätzlich nicht. Bei Sportveranstaltungen, die einen Live-Bericht im Regen rechtfertigen würden, gibt es reichlich Unterstellmöglichkeiten. Allenfalls ein paar Events oder unbestimmbare Politiker-Statements würden einen gewissen Bedarf nach Deinen Anforderungen rechtfertigen. Dazu besorgt man sich eben einen Schirmhalter oder Schirmhalterin.
Einspruch:
viewtopic.php?f=76&t=157402&start=350#p1172406
viewtopic.php?f=76&t=157402&start=385#p1172481

Wir leben in Deutschland, nicht in Kalifornien, wo man in der Regel schon weiß, dass es in 4 Wochen recht sicher nicht regnet.
Meine Drehs stehen schon viele Wochen im Voraus fest. Termine werden gemacht, Equipment und Personal wird gebucht.
Wenn sich 3 Tage vorher herauskristallisiert, dass es regnet, dann muss man sich halt drauf einstellen so gut es geht. Und das bedeutet nicht, dass man *puff* plötzlich 3 Leute mehr am Set stehen hat, die nur die Schirme halten oder die Easyups von A nach B tragen. Es ist ja nicht plötzlich mehr Budget da, nur weil das Wetter schlecht ist.

Im Übrigen sind die Aufnahmen der Wildpferde im Wald bei Regen sehr reizvoll geworden. Und dass der Moderator im Regen steht, kommt bei einer Naturreportage auch recht organisch daher. Aber angenehm war der Drehtag im Regen trotzdem nicht und ich hätte auch lieber bei Sonnenschein gedreht. Mein Job ist aber der eines "Problemlösers" und nicht einer der Probleme macht. Also Augen zu und durch und so gut wie es eben geht mit der Situation umgehen.

Space


Antwort von Pianist:

Ja, ich muss auch echt noch mal sagen: Wenn Leute hier konkrete Drehsituationen schildern, dann werden sie die genau so erlebt haben. Da finde ich es dann nicht angemessen, wenn andere behaupten, dass das ja alles total ungewöhnlich und ausgedacht sei.

Matthias

Space


Antwort von Mediamind:

Dann haben wir noch so etwas am Markt:

https://www.amazon.de/Regenschutzhülle- ... hdGY&psc=1

Hat jemand mal so etwas ausprobiert?

Space


Antwort von Alex:

Mediamind hat geschrieben:
Hat jemand mal so etwas ausprobiert?
Noch nicht, ich wollte für die FX3 eigentlich sowas bestellen:
https://www.bhphotovideo.com/c/product/ ... _sony.html
Aber bei dem Preis bestelle ich erstmal das von deinem Link und hoffe, dass es dicht ist :D

Space


Antwort von Mediamind:

Das sieht ja nice aus. Oben ist der Zoom F1 am Blitzschuh befestigt, auch keine schlechte Idee, der F1 ist ganz ordentlich entkoppelt. Ich habe auch mal in Richtung des Hydrophobia von Think Tank geschaut, scheint auch nicht schlecht zu sein.

Space


Antwort von rush:

Angelbird spielt nun auch im Bereich CFexpress Typ A mit - damit gibt es also endlich einen weiteren Player für Typ A in Sony Kameras.

Preislich ist die bisher vorgestellte Karte sogar recht interessant wenn man den Preis pro Gigabyte im Vergleich zu Sony Karten oder auch entsprechend schnellen V90 SDXC Karten zieht.

Die 1TB Version liegt bei 594,99€ UVP inkl Steuern laut Angelbird Website...

https://www.angelbird.com/prod/av-pro-c ... pe-a-3001/

Interessanter wären sicherlich etwas kleinere Varianten in 512GB oder auch 256GB.

Mal gucken was da so kommt...

Space


Antwort von Axel:

A7SIII, Ronin RS3 Mini, ECsowieso:

FX3, FX30, ZV-1, alle haben sie bestimmten Kikkifuck, aber am Ende des Tages ist es noch dasselbe Video, und das ohne EVF.

Space


Antwort von Frank Glencairn:

TomStg hat geschrieben:
Schutz für mehrere Stunden im Dauerregen bereit zur Aufnahme? Scheint mir ein extrem seltenes Szenario zu sein.

Aber bei kurzen Takes in Irland im Regen mit vollständig aufgeregter Kamera hat mir hat schon oft ein genügend großer Regenschirm geholfen - entweder gehalten von einer Begleitpersonen oder fest am Stativ montiert wie bei einem Golfschirm. Genügend groß bedeutet, dass auch bei moderatem Seitenwind Regentropfen zuverlässig von der Kamera ferngehalten werden.
Ja, Golfschirm ist auch bei mir die erste Wahl, ich hab mir einen an nen Manfrotto Arm mit Super Clamp gemacht.
Wenn das mit dem Schirm nicht geht hab ich ein Raincover für Kamera und Monitor - ansonsten halt mit der guten alten Plastiktüte improvisieren, oder notfalls halt einfach auch mal schnell einfach ohne alles - das macht weniger aus als man denkt.

12647512_1553185141659077_4606023285291986438_n.jpg12647230_1553185098325748_5404463216289642811_n.jpg12645226_1553185008325757_7853695408618090041_n.jpg 12651067_1553390911638500_5558794831884366487_n.jpg

Space


Antwort von Frank Glencairn:

Regen, Schnee, Sand, Staub, Nebel - jede Art von Partikeln in der Luft sieht meistens gut aus.

Wong Kar Wai hat das nicht nur so gut wie sonst keiner perfektioniert, sondern quasi neu eigene Kunstform daraus gemacht.

Hie ist eine der besten Regenszenen die ich je gesehen habe.




Space


Antwort von pillepalle:

Ja, gut gemacht, aber natürlich total übertrieben viel Regen :) Das Wasser steht 10cm tief auf dem Boden, dann spritzt es natürlich auch immer schön wenn einer hinfällt.

VG

Space


Antwort von Pianist:

Frank mit Amira... :-)

Rein vom Handling her fand ich sie super, wenn auch etwas schwer. Mein Fehler war vermutlich, dass ich mich zu sehr auf die internen Looks konzentriert habe, statt einfach in Arri Log-C zu drehen, aber damals war ich einfach noch nicht so weit, mich mit LUTs zu beschäftigen. Und später wurde wohl sogar eine Rauschunterdrückung in die Firmware reingebastelt. Aber es wäre wohl Blødsinn, jetzt eine Gebrauchte zu kaufen...

Matthias

Space


Antwort von rush:

Sony hat neben der A9III auch ein Firmware Update für die "betagte" A7sIII sowie A1 in Aussicht gestellt:
Screenshot_2023-11-07-22-57-42-50_e4424258c8b8649f6e67d283a50a2cbc.jpg

Space


Antwort von Axel:

Gute Sache.

Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Sony A7/A7s/A7R I/II/III/IV - RX10 - RX100-Forum

Antworten zu ähnlichen Fragen //


Sony kündigt weltweit erste CFexpress 2.0 Typ A Speicherkarte für Sony A7s III an
Sony a7s VS. a7s II: Welche ist besser für Video?
Sony Alpha 7R IV im Anflug - werden heute Sony A7S III, A9 II und Alpha 7000 ebenfalls vorgestellt?
Soviele Bugs in Resolve?
Neue Sony A7S III filmt intern in 4K 10 Bit 4:2:2 bis 120fps - mit 15+ Dynamikumfang
Nachtrag: Sony A7S III + Atomos Ninja V = 12bit ProRes RAW Aufzeichnung
Die Sony A7S III hat keine Hitzeprobleme -- oder möglicherweise doch?
Sony A7S III Praxistest: Hauttöne, 10 Bit 4:2:2 LOG/LUT und stabilisierter Sensor - Teil 1
Wer hat die beste Video-Stabilisierung? Sony A7S III vs Canon EOS R5 vs Panasonic S1H
Sony A7S III im Praxistest: Ergonomie, Bedienung, AF-System, Fazit ? Teil 2
Sony A7S III - Atomos Ninja V Update für ProRes RAW Aufzeichnung ist da
Sony Alpha 1 im Vergleich zu A9 II, A7R IV und A7S III - welche Kamera wofür?
Sony A7S III vs Canon EOS R6 Vergleich: Autofokus mit f1.8 offener Blende beim Interview
Sony A7S III - Fragen zu Picture Profiles und der Bearbeitung in Final Cut
DJI-Konkurrenz: Neue 4K 60p Footage von Sony"s Airpeak Drohne mit montierter A7S III
Sony A7S III S-Log 3 Footage
Sony a7s iii AF pumpt
Sony A7s III kaufen / 22.000 Auslösungen




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash