Logo Logo
/// 

Atomos Shogun 4K Recorder wird ab heute ausgeliefert!



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Newsmeldung von slashCAM:


Der Deutschlandvertrieb für den 4K Atomos Shogun Recorder hat uns soeben mitgeteilt, dass der Shogun eingetroffen ist und ab heute ausgeliefert wird


Hier geht es zur Newsmeldung mit Link und Bildern auf den slashCAM Magazin-Seiten:
Atomos Shogun 4K Recorder wird ab heute ausgeliefert!




Antwort von Stephan_Kexel:

Hier das offizielle Vorstellungs-Video:

Viele Grüße

Stephan



Antwort von PerspectivePictures:

Achtung FS700 Users:

Our future proof platform (Powerful Generation 2 Processor, Sata 3 @ 6Gb/s, Large FPGA with upgradability) is designed for the following in the future:

12G-SDI 4K 50/60p Support
Apple ProResProRes im Glossar erklärt HD 4:4:44:4:4 im Glossar erklärt 10-bit
3D LUTs
FS700 RAW decode
Full 4K - 4096 x 2160 support

Also leider noch kein FS700 RAW Support.





Antwort von Stephan_Kexel:

Das ist richtig, aber das ist schon seit September (IBC) bekannt das der RAW support für Sony und Canon erst nach der Auslieferung als kostenloses FW update kommt.

Viele Grüße

Stephan



Antwort von mash_gh4:

Hier das offizielle Vorstellungs-Video:

schaut natürlich sehr beeindruckend aus! :)

das einzige, das mich ein wenig erschreckt, ist die unglaubliche verzögerung der monitordarstellung.

ich finde ich es allerdings ausgesprochen vorbildlich, dass derartiges in der produktpräsentation nicht vorsorglich ausgeklammert, sondern ganz offen zur schau gestellt wird. einen derart realistischen zugang würde man sich in solchem rahmen öfter wünschen. -- DANKE!



Antwort von Kranich:

Geiles Teil!

Demnächst soll ja n neuer Avid codec (DNXHR) raus kommen, da müssen die aber noch ma n update rausbringen für den Recorder?



Antwort von Fader8:

Da hat der Odyssey 7Q+ das auslieferungsfarum wohl ein bisschen angekurbelt^^

Bezgl. FS 700: warum um alles in dr Welt sollte man den shogun dem 7Q vorziehen?!

Grüsse



Antwort von Valentino:

Der Rekorder kann über einen Raid Caddy auch zwei 2,5" HDD aufnehmen.

Da bei solchen Datenraten ein Raid1 sinnlos ist, wollen die echt das man wieder Russisch Roulette im Raid0 Modus spielt?
Als ob uns nicht schon die RedDrives vor Jahren gezeigt haben, das bewegte HDDs im Raid0 definitiv keine zuverlässiges Aufnahmemedium sind.

Ich wäre als Hersteller nicht so mutig, noch so eine Speicherkombination für meine Rekorder zum empfehlen.

Warte schon auf den ersten User, der hier ein Datenverlust postet.



Antwort von PerspectivePictures:



Bezgl. FS 700: warum um alles in dr Welt sollte man den shogun dem 7Q vorziehen?!

Grüsse

Kompaktheit und Kosten.



Antwort von Bergspetzl:

Bezgl. FS 700: warum um alles in dr Welt sollte man den shogun dem 7Q vorziehen?!

Weil er schön bunt ist. :)

Zugute halten muss man ihm, dass er relativ üppig bepackt daher kommt und anscheinend out of the box (auch mit further updates) vieles mitbringt, was beim Odyssey erst teuer gekauft werden muss.

Er kann auf mehr Medien aufzeichnen, er hat Full HD, ich muss nicht teuer eine Akkuhalterung kaufen, die mit unpraktischem Mini-XLR angeschlossen wird (gibt es nicht als Winkelstecker - double shame on you). Die Menüs sehen vetrauenserweckender aus und man muss sicher nicht 10x im laufenden Betrieb einen Kaltstart hinlegen, weil das Gerät wieder einfriert oder Chaos auf dem Bildschirm veranstaltet, was vor Kunden wirklich unangenehm ist, da es den Anschein macht als hätte man nicht das Top-Produkt des Feldes vor sich, sondern irgendeinen Beta-Ramsch der Umständlich aussieht und offenbar nicht zuverlässig funktioniert. Dazu kostet der Shogun nur die Hälfte.

Bleibt abzuwarten, wie die Bildqualität ist. Was aber gar nicht geht und das Ganze zu einem Spielzeug macht ist das Delay. Ich denke einmal, das wird noch behoben sein, weil sonst ist jeder Vorzug definitiv den Bach runter.

Der 7Q ist wirklich ein guter Monitor, der auch zuverlässig aufnimmt, bei allen UI-Schwächen. Das Bild ist wirklich in Ordnung. Jedoch ist das Menü noch sehr weit von "nice" entfernt. Es macht den Anschein, als würden wir da in der Dos-Shell umhertapsen, oder im SpeedCommander anno 1998, der Shogun ist da schon eher beim Tablet angekommen. Und der 7q kostet knapp das Doppelte, ist proprietär und derweil bekleckert sich CD nicht mit Ruhm, wenn man sieht was da gerade ins Haus steht.

Gerade als Kunde der ersten Genereation (der dann ca. 6-9 Monate warten durfte) würde man sich erwarten, dass CD auf die Leute, die eh schon teuer gezahlt haben, zukommt und sie an manchen Dingen teilhaben lässt, ohne die Hand aufzuhalten. Da hat es der zweite im Feld immer leichter, und daher wird Atomos mit dem Shogun sicher einen Treffer einfahren. Und das mit wenig, aber bestimmten Aufwand, der es schafft, den 7Q auszuhebeln.

Meine Meinung :)



Antwort von Fader8:



Bezgl. FS 700: warum um alles in dr Welt sollte man den shogun dem 7Q vorziehen?!

Grüsse

Kompaktheit und Kosten.

Kompaktheit ok - obwohl der Odyssey auch nicht viel grösser sein sollte.

Kosten - nunja der shogun kostet ohne Medien sogar mehr als der Odyssey!

Ja die Lizenz brauchst du nicht, aber der Preisunterschied ist doch eher gering...aber beim Odyssey kriegst du viel mehr!



Antwort von Bergspetzl:

1,995.00 bei BH
+2x 256 ssd ca 300€

unterm strich 2000€ fertig.

der odyssey kam auf 3800$, und da ist weder ein koffer dabei, noch ein passgenaues innenfutter, noch akkus/ladegerät/...

also billiger war der odyssey nie. der shogun wird in 6 monaten +- sicher auch noch einen pricedrop machen



Antwort von Valentino:

Was mich bis heute bei den ganzen SSD Rekordern wundert, warum werden von keinen Hersteller Samsung SSD unterstützt?

Weder die EVO noch die Pro Serie komprimiert intern und alle Innereien kommen aus einem Hause. Dazu sind die Samsung Pro SSD in fast jedem Test unter den "Top 3" und die EVOs kurz dahinter.
Wo hingegen gerade OCZ für interne Datenkomprimierung bekannt ist und diese gelistet werden.

Kann sich das einer erklären?



Antwort von DV_Chris:

Der Shogun kostet UVP 1.490,- netto, kann mit an jeder Ecke zu kaufenden HDD und SSD betrieben werden. Das Display hat FullHDFullHD im Glossar erklärt Auflösung und ist REC709 kalibrierbar. Das Akku Konzept überzeugt seit dem ersten Shogun inklusive DTap Adapter. Ein HDMI/SDI Wandler ist integriert. Und der After Sale Support des deutschen Vertriebs ist vorbildlich.



Antwort von klusterdegenerierung:

Hat jemand einen bestellt und ein Datum bekommen?
Mein Dealer meint das es wohl vor 4 Wochen nichts wird, selbst bei vorbestellungen.

Habt ihr da was anderes gehört?



Antwort von wolfgang:

Wenn alles klappt sollte ich meinen am Ende der Woche haben. Schauen wir mal obs so kommt.
:)



Antwort von StefanFilm:

Hi, ich würde gerne etwas zu dem Thema beitragen.
Der Q7+ hat wie sein Vorgänger nur ein 1280x800pix Display.
Der Shogun 1920x1200.
Auf einem 720p Monitor 4k zu beurteilen ist schon sportlich.
Zudem kann er, trotz neuer Hardware nur 8bit 4:2:24:2:2 im Glossar erklärt ProResProRes im Glossar erklärt aufnehmen.

Ich habe den Shogun seit letzte Woche Montag und neben einigen Nachtszenen und Productshoot ein Musik Video mit der Sony A7S und dem Shogun in 4k UHD gedreht. Ist seit heute Abend online:
http://youtu.be/XXMLjBR4lzI

Zudem bereite ich gerade eine umfassende Review vor, in der ich u.a. für verschieden Kameras deren Menueeinstellung und eigenheiten zusammen mit dem Shogun erkläre.
Kurze Sneak dazu:

Speziell für die beliebte Frage nach dem "sichtbaren Unterschied" von 4:2:24:2:2 im Glossar erklärt zu 4:2:04:2:0 im Glossar erklärt Material habe ich ein anschauliches Beispiel produziert.
Vielleicht kann ich damit ja ein paar offene Fragen beantworten.
In diesem Sinne,
Liebe Grüßen
Stefan



Antwort von klusterdegenerierung:


das einzige, das mich ein wenig erschreckt, ist die unglaubliche verzögerung der monitordarstellung.

Das ist doch kein Qualitätsmerkmal!
Das hat doch nur was damit zu tun, ob Du Dir das Signal anguckst welches Du gerade aufnimmst, oder gerade aufgenommen hast.

Ist eine Einstellungssache.



Antwort von Bergspetzl:



Stephan_Kexel hat folgendes geschrieben:

das einzige, das mich ein wenig erschreckt, ist die unglaubliche verzögerung der monitordarstellung.

Das ist doch kein Qualitätsmerkmal!
Das hat doch nur was damit zu tun, ob Du Dir das Signal anguckst welches Du gerade aufnimmst, oder gerade aufgenommen hast.

Stimmt, wenn ich ihn wegklappe, und nur als Rekorder mit optischer Wiedergabemöglichkeit betrachte, ist das richtig. Dann habe ich Glück gehabt und kann mit einen günstigen Odyssey 7 (ohne Q) kaufen, da ich ja nur noch einen Bildschirm benötige. Die Welt ist so schön...

:)

ich glaube nur nicht dran...



Antwort von mash_gh4:



hat jemand hier in der runde eine erklärung für die bereits angesprochene verzögerungsproblematik?

ist das ein problem, das sich nur im konkreten zusammenspiel mit der GH4 ergibt bzw. deren mängel geschuldet ist, oder aber ist es tatsächlich charakteristisch für den shogun?

ich halte das leider für ein qualitätsmerkmal, das sich beim praktischen arbeiten ausgesprochen störend bemerkbar machen dürfte. so etwas kann das schönste geräte mit den tollsten und umfangreichsten anderen technischen features beinahe unbrauchbar erscheinen lassen.

ich kenne solche einschränkungen vor allem von WLAN bedienungslösungen. die sind aus diesem grund in meinen augen auch nicht viel mehr als ein lustiges spielzeug, so lange es nicht befriedigender funktioniert. (im gegensatz zu externen all-in-one lösungen tut sich dort prinzipbedingt aber wenigstens auch die möglichkeit auf, die kamera sehr effizient zu steuern bzw. nicht alle mess- und aufnahmeeinstellungen unnötig zu verdoppeln)

die GH4 hat bekanntlich noch immer ganz grobe probleme mit der synchronität der tonspur, was sicher mit ein wichtiger grund sein könnte, externen aufzeichnungen von ton und bild anzustreben; trotzdem muss jede diesbezügliche lösung einfach kompromisslos sauber und reibungslos funktionieren, sonst ist sie solche summen nicht wert.



Antwort von chackl:

Kann das Ding eigentlich anamorph entzerren?



Antwort von Stephan_Kexel:

Hier das offizielle Vorstellungs-Video:

schaut natürlich sehr beeindruckend aus! :)

das einzige, das mich ein wenig erschreckt, ist die unglaubliche verzögerung der monitordarstellung.

ich finde ich es allerdings ausgesprochen vorbildlich, dass derartiges in der produktpräsentation nicht vorsorglich ausgeklammert, sondern ganz offen zur schau gestellt wird. einen derart realistischen zugang würde man sich in solchem rahmen öfter wünschen. -- DANKE!

Die Verzögerung kommt von dem GH-4 Ausgang und nicht vom Shogun.
Schließt man die GH-4 direkt an einen 4K Monitor an ist die Verzögerung 100% gleich.

Viele Grüße

Stephan



Antwort von Manuell:

Der Shogun macht echt einen tollen Eindruck:

- 4K Rekorder
- sehr sehr guter Monitor
- Audio-Rekorder
- SDISDI im Glossar erklärt zu HDMIHDMI im Glossar erklärt Konverter
- HDMIHDMI im Glossar erklärt zu SDISDI im Glossar erklärt Konverter
- eigenständiges Abspielgerät

Überlege mir den für meine Blackmagic Production Cam zu kaufen, obwohl ich die 4K Aufzeichnung nicht bräuchte finde ich die restlichen Funktionen einfach top und ich spare mir die Fummelei mit mehrern Geräten. Quasi alles in einem. Finde knapp unter 1800,- Euro Brutto auch nicht zu teuer für das Gebotene.



Antwort von Skeptiker:

Hi, ich würde gerne etwas zu dem Thema beitragen. ...
Für Infos die wir hier schon alle duch haben, meldest Du dich extra an?
Wow!
@klusterdegenerierung:
Was für eine unfreundliche, stillose Art, einen Neuankömmling im Forum zu begrüssen!

Und ist es wirklich so, dass wir schon alle Infos durch haben, wenn StefanFilm z.B. schreibt:

... Speziell für die beliebte Frage nach dem "sichtbaren Unterschied" von 4:2:24:2:2 im Glossar erklärt zu 4:2:04:2:0 im Glossar erklärt Material habe ich ein anschauliches Beispiel produziert. ...
Ich bin jedenfalls daran interessiert.



Antwort von Asahi:

gibts jetzt auch tatsächlich die ersten überteuerten ebay angebote....



Antwort von CameraRick:


... Speziell für die beliebte Frage nach dem "sichtbaren Unterschied" von 4:2:24:2:2 im Glossar erklärt zu 4:2:04:2:0 im Glossar erklärt Material habe ich ein anschauliches Beispiel produziert. ...
Ich bin jedenfalls daran interessiert.
Schon irgendwo, wobei ich das auch irgendwie immer etwas fraglich finde. Ein sichtbarer Unterschied (unbearbeitetes Material) ist mir da noch nie aufgefallen.
Wen interessiert der sichtbare Unterschied - es geht um Information, haben oder nicht. Wenn Du Dein Footage nur verschneidest und nichts anderes damit machst (Farb/Kontrast/Helligkeitskorrekturen etc) kann einem doch völlig egal sein, da reicht im Zweifel immer 420 in 8bit.
Sieht halt an dem Punkt anders aus, wenn Du etwas am Footage drehst (bzw auch wie viel, versteht sich).



Antwort von mash_gh4:

Die Verzögerung kommt von dem GH-4 Ausgang und nicht vom Shogun.
Schließt man die GH-4 direkt an einen 4K Monitor an ist die Verzögerung 100% gleich.

ich hab's befürchtet! :(

auch besitzer des YAGH haben immer wieder von ganz ähnlichen problemen berichtet.

für GH4-besitzer ist das natürlich keine besonders erfreuliche nachricht, weil damit auch alle ähnlichen lösungen nicht besser funktionieren dürften, aber zumindest ist es fein, wenn die schuld dafür nicht bei eurem jüngsten kind gesucht werden muss.

danke!



Antwort von wolfgang:

Wen interessiert der sichtbare Unterschied - es geht um Information, haben oder nicht. Wenn Du Dein Footage nur verschneidest und nichts anderes damit machst (Farb/Kontrast/Helligkeitskorrekturen etc) kann einem doch völlig egal sein, da reicht im Zweifel immer 420 in 8bit.
Sieht halt an dem Punkt anders aus, wenn Du etwas am Footage drehst (bzw auch wie viel, versteht sich).

Alles schön und gut, aber wenn man das Material nicht bearbeiten will wird man sich kaum die Mühe für 10bit 4:2:24:2:2 im Glossar erklärt antun. Aber wenn man entsprechend Luma- und Farbkorrekturen machen will, dann hat man damit halt bessere Karten - einfach weil man weniger Rauschen ins Material im Zuge der Bearbeitung einbringt.

Und wer Banding kennt hat auch ein gutes Beispiel dafür, wo man halt auch im Fall ohne Bearbeitung entsprechend anstehen kann.

Aber das ist alles eine Frage des Anspruchs. Es muss ja keiner Rekorder wie den Shogun nutzen - ist eine freiwillige Entscheidung.



Antwort von domain:


Aber das ist alles eine Frage des Anspruchs. Es muss ja keiner Rekorder wie den Shogun nutzen - ist eine freiwillige Entscheidung.
Stimmt, denn die Anforderungen bei Erstkommunions- und Hochzeitsvideos sind bekanntlich besonders hoch. Da hast du sicher gut investiert ;-)



Antwort von Elsalvador:


Zudem bereite ich gerade eine umfassende Review vor, in der ich u.a. für verschieden Kameras deren Menueeinstellung und eigenheiten zusammen mit dem Shogun erkläre.
Kurze Sneak dazu:

Hallo Stefan,

willkommen im Forum. Freu mich auf die Review.

Gruß aus Bockenheim ;)



Antwort von mash_gh4:

Die Verzögerung kommt von dem GH-4 Ausgang und nicht vom Shogun.
Schließt man die GH-4 direkt an einen 4K Monitor an ist die Verzögerung 100% gleich.

nachdem es mir keine ruhe gelassen hat, weil es bisher nie so störend ins auge gefallen ist, hab ich das jetzt schnell empirisch überprüft:

meine GH4 zeigt bei interner aufnahme und ausgabe auf einen 1080p1080p im Glossar erklärt schirm ziemlich genau 3 frames verzögerung bei 25fps. der wert ändert sich auch nicht, egal ob man in 4K oder FHD aufnimmt.

in eurem video sind es aber zumindest 9 frames verzögerung -- fast eine halbe sekunde! :(

das ist schon ein gewaltiger unterschied!

natürlich nerven auch schon die besagt 3 frames, aber mit fast einer halben sekunde monitorverzögerung kann man meiner erfahrung nach wirklich kaum mehr flott scharfstellen oder schwenks präzise ausführen. da mag das display noch so schön groß und bunt sein.

ich kann mich noch sehr gut daran erinnern, wie erstaunt ich darüber war, dass das eingebaute display der GH4 in dieser hinsicht so viel besser funktioniert als ich es von vorgängern her gewohnt war. genau deshalb weiß ich ja leider auch, welche praktischen auswirkungen derartige ergonomische mängel nach sich ziehen. in diesem punkt möchte ich vermutlich wirklich keinen derart einschneidenden rückschritt hinnehmen.



Antwort von Stephan_Kexel:

Die Verzögerung kommt von dem GH-4 Ausgang und nicht vom Shogun.
Schließt man die GH-4 direkt an einen 4K Monitor an ist die Verzögerung 100% gleich.

meine GH4 zeigt bei interner aufnahme und ausgabe auf einen 1080p1080p im Glossar erklärt schirm ziemlich genau 3 frames verzögerung bei 25fps. der wert ändert sich auch nicht, egal ob man in 4K oder FHD aufnimmt.

in eurem video sind es aber zumindest 9 frames verzögerung -- fast eine halbe sekunde! :(

das ist schon ein gewaltiger unterschied!

Also unsere 2 GH4 zeigen über die 4K Ausgabe (nicht 1080P) an einem 4K Monitor das gleiche delay wie in unserem Video in dem Shogun zu sehen ist.
Mehr kann ich dazu nicht sagen.



Antwort von Bergspetzl:

das kann man einfach testen:

youtube timecode aufrufen, kamera darauf fixieren und foto wo beide displays zu sehen sind.

dann sieht man genau den versatz.

etwas sowas

bei der fs700 sinds via hdmi zum alphatron 1,5 frames. und man hat schon das gefühl es ist wirklich ein delay da...



Antwort von DV_Chris:


Aber das ist alles eine Frage des Anspruchs. Es muss ja keiner Rekorder wie den Shogun nutzen - ist eine freiwillige Entscheidung.
Stimmt, denn die Anforderungen bei Erstkommunions- und Hochzeitsvideos sind bekanntlich besonders hoch. Da hast du sicher gut investiert ;-)

Einfach mal nach der kroatischen Firma Art Studio googeln. Deren Hochzeitsvideos halten locker mit Mittelstandsproduktionen mit. Die können den Shogun gut gebrauchen. Ebenso viele Mitglieder der WEVA.



Antwort von klusterdegenerierung:

Einfach mal nach der kroatischen Firma Art Studio googeln. Deren Hochzeitsvideos halten locker mit Mittelstandsproduktionen mit. Die können den Shogun gut gebrauchen.

Jo!
http://www.art-studio.tv/v2011/

Oder auch 2 oder 3! :-)

Doch auch wenn die wirklich hohe Qualität liefern, bei wedding weiß man immer was kommt, ist es noch so gut umgesetzt! Ich kann quasi mitzählen, ab wann der Mann seine Krawatte beginnt zu binden, irgendwie auch schade, weil auch wenn die rumsliden wie Niki Lauda, es ist immer der gleiche Film!



Antwort von Jensli:

Einfach mal nach der kroatischen Firma Art Studio googeln. Deren Hochzeitsvideos halten locker mit Mittelstandsproduktionen mit. Die können den Shogun gut gebrauchen.

Jo!
http://www.art-studio.tv/v2011/

Oder auch 2 oder 3! :-)

Doch auch wenn die wirklich hohe Qualität liefern, bei wedding weiß man immer was kommt, ist es noch so gut umgesetzt! Ich kann quasi mitzählen, ab wann der Mann seine Krawatte beginnt zu binden, irgendwie auch schade, weil auch wenn die rumsliden wie Niki Lauda, es ist immer der gleiche Film!

Hab mir die auch angeschaut. Oberflächlich betrachtet, wirklich tolle Aufnahmen. Inhaltlich jedoch immer das Gleiche. Sogar ihre Imageclips für Hotels drehen sie wie einen Hochzeitsfilm. Nach zwanzig Jahren Weddingfilm kein Wunder. Da sieht irgendwann alles aus wie ein Weddingfilm... ;-)



Antwort von mash_gh4:

Also unsere 2 GH4 zeigen über die 4K Ausgabe (nicht 1080P) an einem 4K Monitor das gleiche delay wie in unserem Video in dem Shogun zu sehen ist. Mehr kann ich dazu nicht sagen.

naja -- die konkurrenz behauptet, dass sie 5 frames verzögerung am HDMIHDMI im Glossar erklärt ausgang der GH4 sehen. sollte das stimmen -- ich glaub ja mittlerweile gar nichts mehr, bevor ich es nicht selbst ausprobiert habe ;) -- würde etwa die hälfte des problems der firma panasonic zuzuschreiben sein, die andere hälfte aber weiterhin als dringendes verbesserungspotential auf seiten von atomos offen bleiben.

ich würde es ohnehin für recht erfreulich halten, wenn auch panasonic durch diese aktuellen entwicklungen ein bisserl unter druck geraten würde, ewig vor sich her geschobene objektive mängel endlich auszumerzen und die tatsächlichen wünsche ihrer kunden ernst zu nehmen. immerhin ist der shogun sicher ein ganz brilliantes demonstrationsobjekt, wenn man zeigen will, wie ein YAGH aussehen hätte müssen, damit er/es wirklich ein erfolg geworden wäre.

jedenfalls ist es -- wie bergspetzl schon geschrieben hat -- ausgesprochen trivial, entsprechende verzögerungen einigermaßen objektiv nachzuvollziehen. (man muss nur drauf achten, dass man den eingeblendeten zeit- und frameangaben nicht zu viel glauben schenkt, sondern wirklich die einzelnen bilder durchgeht)

der monitor, mit dem ich das hier ausprobiert habe, besitzt übrigens einen lag von ~0.25 frames -- obwohl es wirklich nur ganz billiger schrott ist ;)



Antwort von wolfgang:


Aber das ist alles eine Frage des Anspruchs. Es muss ja keiner Rekorder wie den Shogun nutzen - ist eine freiwillige Entscheidung.
Stimmt, denn die Anforderungen bei Erstkommunions- und Hochzeitsvideos sind bekanntlich besonders hoch. Da hast du sicher gut investiert ;-)

Tja nur wer sagt dir den, dass bei mir der Shogun überhaupt für diese Videos überhaupt zum Einsatz kommen wird?

Erstkommunionsvideos mache ich schon seit Jahren nicht mehr - weil abgrundtief schlecht bezahlt. Hier auf UHD mit 10bit 4:2:24:2:2 im Glossar erklärt zu gehen, würde heißen mit Kanonen auf Spatzen zu schießen.

Für Hochzeitsproduktionen kann man das (in Grenzen) durchaus anders sehen - denn ein Teil dieses Marktes ist sehr qualitätsbewußt (und die fahren auf so Spezialitäten wie 3D-Hochzeiten oder 4K-Hochzeiten durchaus ab). Aber auch da muss man erst diese Kunden haben und diesen Markt bedienen wollen.



Antwort von wolfgang:

Zurück zum Thema - die Konfusion darüber, dass über hdmi 1.4b offenbar doch UHD mit 10bit 4:2:24:2:2 im Glossar erklärt transportiert werden kann, zieht sich im Moment wie ein roter Faden international durch alle Foren.

Sowohl Atomos wie auch Convergent Design bestätigen aber, dass dies bis zu 30p möglich sei.

Wer sich für die internationle Diskussion interessiert, der findet hier mal relevante Zitate:

http://www.videotreffpunkt.com/index.ph ... geht-doch/



Antwort von iasi:

der Shogun bietet all-in-one
und dazu scheinbar noch in guter Qualität

Timecode?
Wozu?
Der Shogun besitzt XLR-Eingänge und kann also eine weitere Tonspur aufzeichnen.
Mittlerweile sind Rechner ausreichend schnell, um auch zwei gleiche WAV-Dateien synchronisieren zu können.
Timecode ist also entbehrlich geworden.

Ich kann mir auch keine Situationen vorstellen, bei denen eine Verzögerung von 5fps nun wirklich dramatisch wären.

Wichtiger erscheint mir da doch schon eher die Einsparung während des Drehs durch die Konzentration von Funktionen auf möglich wenig Geräte.
Weniger Kabel, weniger Akkus, weniger ...

Der Shogun ist ein guter Monitor, der eben auch Ton und Bild aufzeichnen kann - tolle Sache.
Und dabei verschlingt er nicht einen derart großen Batzen am Investitionsbudget, wie die Konkurrenzprodukte.

Es ist zudem auch immer eine Frage der Relationen:
Eine 1500€-Kamera und ein 3000€-Rekorder?
Macht das überhaupt Sinn?
Der Shogun ergibt als Monitor/Rekorder-Kombination für den Preis, schon eine andere Relation.

Wer zudem wirklich denkt, er könne nur mit einem prall gefüllten Techniktransporter arbeiten, der sollte sich doch auch mal fragen, ob die Technikschlacht eigentlich wirklich noch einen Effizienzvorteil bringt.



Antwort von mash_gh4:

das problem ist einfach, dass es funktionieren muss!

Timecode?
Wozu?
Der Shogun besitzt XLR-Eingänge und kann also eine weitere Tonspur aufzeichnen.

ja -- aber vermutlich nur mit 5 frames zeitversatz, weil er das bild ja nicht früher von der kamera bekommt. und diese 5 frames gelten auch wieder nur für genau dieses eine spezielle gegenüber. bei einer anderen quelle sind es möglicherweise nur 3 od. vielleicht 6, jedenfalls wird es ohne umständliche kalibration kaum lippensynchron ausfallen.

genau dieses problem kennen sorgsame GH4 benutzer aus leidervoller erfahrung bereits sehr genau. bei dieser kamera weicht nämlich die tonspur auch schon bei interner aufnahme deutlich vom bildgeschehen ab. und noch unguter ist die ganze geschichte, weil es offenbar je nach verwendeter software (mainconcept vs. avlib) in unterschiedlicher ausprägung zu tage tritt. :( (einfach danach googlen, dann findest unzählige beschwerden dazu)

der shogun würde sich hier also geradezu anbieten, um diesem problem zu entkommen. aber so wie es sich momentan darstellt, dürfte es dadurch nur noch schlimmer werden.

Mittlerweile sind Rechner ausreichend schnell, um auch zwei gleiche WAV-Dateien synchronisieren zu können.
Timecode ist also entbehrlich geworden.

ja -- aber dazu benötigst du irgendeine referenzquelle, auf die man sich verlasssen kann. dass ist leider im falle der GH4 nichteinmal intern gegeben. :(

Ich kann mir auch keine Situationen vorstellen, bei denen eine Verzögerung von 5fps nun wirklich dramatisch wären.

beim ton stört schon dieses interne abweichung von ~1 frame.

was die verzögerung des shogun displays betrifft geht es aber um 9 frames! das ist zwar für die aufzeichnungsqualität nicht von relevanz, schlägt sich aber bestimmt außerordendlich störend auf die praktische anwendung beim filmen nieder. mit einem derart verzögerten monitor-bild kann man kaum ernsthaft arbeiten. da mag es auf den ersten blick noch so schön aussehen.

Wichtiger erscheint mir da doch schon eher die Einsparung während des Drehs durch die Konzentration von Funktionen auf möglich wenig Geräte. Weniger Kabel, weniger Akkus, weniger ...

da gebe ich dir insofern recht, als wir uns wahrscheinlich alle wünschen würden, dass ein großteil der funktionalität dieses geräts einfach auch intern in den entsprechenden kameras angeboten würde. dort könnte man sich bei passender gelegenheit immer noch einen externen monitor dranhängen, oder die speicherkapazitäten durch externe disks erhöhen, wäre aber prinzipiell nicht auf ein weiteres gerät angewiesen. so aber kommt doch nur wieder eine weitere fehlerquelle dazu, von der plötzlich alles andere abhängt.

Der Shogun ist ein guter Monitor, der eben auch Ton und Bild aufzeichnen kann - tolle Sache.
Und dabei verschlingt er nicht einen derart großen Batzen am Investitionsbudget, wie die Konkurrenzprodukte.

naja -- ganz geschenkt ist er auch nicht. immerhin teurer als manche kameras, an denen man ihn verwenden wird. wobei man natürlich z.b. für gute optiken auch immer wieder größere summen hinlegen muss. aber auch dort geht's schließlich nur darum, dass man wirklich jene qualität bekommt, die man sich dafür erwartet.



Antwort von Bergspetzl:

c'mon. neun Frames delay! wenn sie das nicht fixen, dann ist das ding an der cam für die katz.

Bei jeder anderen cam mag er ja funktionieren, aber neun frames an einer dslr, da hat panasonic dringenst nachholbedarf. Wie soll man denn da drehen?? ist ja für alles ausser megaszenisch nahezu unbrauchbar. und auch da müsste man jeden schauspieler soweit biegen dass er auf keinen fall von seinen vorgegebenen schärfenpunkten abweichen darf. zu keiner zeit. was soll das denn?

da können die knöpfe noch so bunt sein, aber wenn atomos das nicht vorne als warnhinweis abdruckt wäre das schon fast ein fall für den verbraucherschutz...polemisch jetzt...

allerdings kann man so mal wieder beweisen, wie man zu seinen produkten und kunden steht, und wann dieses problem gefixt wird. immerhin ist die gh4 ja die killerapplikation für den rekorder zur zeit, das ist wie das fs700 raw, ohne den sicher nur 50% soviele odyssey verkauft worden wären...

Edit: wozu timecode? da hätte ich mehr erwartet...



Antwort von -paleface-:

Also ich finde das Teil auf dem Papier gut.
Habe ihn bestellt und hoffe auf gutes.

Das Delay kann nerven, ja. Aber ich für meinen Teil werde eh weiterhin auf den normalen Sucher schauen. Weil ich viel vom Rig aus mache.

Denke ausserdem das die positiven Dinge den negativen überwiegen.
Alleine das ich jetzt mehr als 30min kontinuierlich aufnehmen kann ist schon sehr geil.



Antwort von -paleface-:

Ach und ich bin auf Tests gespannt wo das Rauschverhalten im dunkeln vergliechen wird.

Mir wurde mal gesagt das die Cam theoretisch weniger rauschen sollte bei schwarz.



Antwort von DV_Chris:

In meiner Eigenschaft als Händler darf ich die frohe Kunde bringen, dass wohl alle Vorbestellungen bis Weihnachten beim Händler der Wahl eintreffen werden und der Shogun ab nächste Woche auch ab Lager Deutschland verfügbar ist :-)



Antwort von iasi:

@mash_gh4

ja - da hast du recht:
wenn der Shogun das Bild mit Versatz erhält, ist es mit Bild-Ton-Sync vorbei - höchstens es wird eine Ausgleichseinstellung geboten.

So bliebe dann nur die zusätzliche Ton- und Bildaufnahme in der Kamera für Synchronisationszwecke - und beim Bild als Backup.
Das treibt den Aufwand leider auch etwas in die Höhe (auch wenn die kamerainterne Tonaufnahme nicht beste Qualität haben muss) ... in der Post hat man dann zumindest mit einer zusätzlichen Bildspur zu hantieren.

9fps Delay ???!!!
Woher hast du das denn?
Das wäre schon ziemlich heffffftig.

Bleibt auch die Frage, ob"s dann mit allen Cams so ist.



Antwort von domain:

Ja sagt mal, welche Maßstäbe setzt ihr denn hier?
Ein Delay darf sich überhaupt nur innerhalb eines Frames bewegen. Was soll denn die ganze Diskussion hier, wir befinden uns im Hightech-Zeitalter mit ultraschnellen Reaktionszeiten.
Wenn die hier diskutierten Delay-Zeiten realistisch sind, dann ist die Technik jedenfalls mal unausgereift und hinterwäldnerisch.



Antwort von mash_gh4:

9fps Delay ???!!!
Woher hast du das denn?
Das wäre schon ziemlich heffffftig.

schau dir einfach das eingangs hier vorgestellte offizielle video (http://vimeo.com/114644960) ab 13:50 an und zähl selber die frames...

aber, sie werden das schon noch irgendwie hinbekommen. ;)

es macht jedenfalls keinen sinn, die sachen unnötig schlecht zu reden...
nur geht's hier halt um dinge, die für eine zufriedenstellende nutzung ganz essentiell sein dürften.



Antwort von wolfgang:

Speziell für die beliebte Frage nach dem "sichtbaren Unterschied" von 4:2:24:2:2 im Glossar erklärt zu 4:2:04:2:0 im Glossar erklärt Material habe ich ein anschauliches Beispiel produziert.

Das wäre absolut gut sowas zu sehen.

Denn: es gibt doch etliche Leute die unverändert nicht glauben, dass eine wirkliche UHD Ausgabe mit 10bit 4:2:24:2:2 im Glossar erklärt über HDMIHDMI im Glossar erklärt 1.4b möglich ist. Die Zweifel kommen aus der Richtung, dass dies die Schnittstelle eigentlich nicht können dürfte.

Nur: auch Convergent Design hat recht klar gepostet - Links siehe oben - dass sie das können. Atomos hält sich hier (leider) bisher viel bedeckter.

Nicht dass ich das nicht glauben würde - auch wenn mir mal wieder irgendwer Leichtgläubigkeit vorhalten mag. Aber es wäre gut wenn es auch von Atomos eine ganz klare Stellungnahme dazu geben würde dass dies eben mit dem Shogun möglich ist. Und es wäre sehr gut anschauliche Beispiele zu haben anhand derer der Unterschied erkennbar wird.

Leider habe ich selbst das Gerät noch nicht - bin gespannt ob das bis Weihnachten klappt. Und ganz so einfach stelle ich mir diesen Nachweis halt auch nicht vor - ohne entsprechende Messgeräte. Aber wenigstens ein optischer Nachweis wäre toll.



Antwort von iasi:

9fps Delay ???!!!
Woher hast du das denn?
Das wäre schon ziemlich heffffftig.

schau dir einfach das eingangs hier vorgestellte offizielle video (http://vimeo.com/114644960) ab 13:50 an und zähl selber die frames...

aber, sie werden das schon noch irgendwie hinbekommen. ;)

es macht jedenfalls keinen sinn, die sachen unnötig schlecht zu reden...
nur geht's hier halt um dinge, die für eine zufriedenstellende nutzung ganz essentiell sein dürften.

na ja - dies scheint aber wohl nur bei der Ausgabe auf einen Monitor der Fall zu sein - da mit dem Playback wohl eh noch Probleme bestehen, könnte es daher rühren.



Antwort von CameraRick:


Alles schön und gut, aber wenn man das Material nicht bearbeiten will wird man sich kaum die Mühe für 10bit 4:2:24:2:2 im Glossar erklärt antun. Aber wenn man entsprechend Luma- und Farbkorrekturen machen will, dann hat man damit halt bessere Karten - einfach weil man weniger Rauschen ins Material im Zuge der Bearbeitung einbringt.

Und wer Banding kennt hat auch ein gutes Beispiel dafür, wo man halt auch im Fall ohne Bearbeitung entsprechend anstehen kann.
Genau das mein ich ja. Wen interessiert der sichtbare Unterschied, wenn das Material eindeutig besser wird.

Beim Banding ists so eine Sache - hatte, bis auf in meinem Handy, noch nie sichtbares Banding in unbearbeitetem Material aus einer Kamera.



Antwort von Kranich:

Also wenn das Bild deutlich besser ist, dann is mir die verzögerung zwar nicht egal, aber dann werde ich mir das ding trotzdem kaufen.

Hat nicht jemand jetzt son Ding ma bekommen? sind die nicht Heute raus?

Ich würde mich mal über ein Testclip freuen, also ein Orginal clip aus dem Recorder :)

Bin gespannt



Antwort von klusterdegenerierung:

Ätsch! :-) ;-)



Antwort von srone:

Ätsch! :-) ;-)

manchmal möchte man dem gegenüber, einfach "eine reinhauen", mit dem kommentar "du weisst warum!" ;-)))))

lg

srone



Antwort von klusterdegenerierung:

Das verstehe ich! :-)
Aber Du kannst sofort mitmischen, denn ich stell mich wieder an wie das erste mal Inlinern!
Habe ich was verpasst oder ist es normal das ich den AVid CodecCodec im Glossar erklärt nicht anwählen kann?



Antwort von srone:

aktuelle firmware?

lg

srone



Antwort von Skeptiker:

... oder ist es normal das ich den AVid CodecCodec im Glossar erklärt nicht anwählen kann?
Ich bin nach wie vor sauer, wie Du den Neuling hier im Forum angebellt hast, der ein Video zu 4:2:04:2:0 im Glossar erklärt versus 4:2:24:2:2 im Glossar erklärt beisteuern wollte. Schlechter Stil!

Aber nun Schwamm drüber - ich gebe Dir trotzdem eine Antwort:
Beim Ninja musste der AVID CodecCodec im Glossar erklärt nachinstalliert bzw. aktiviert werden - das könnte etwas mit Lizenzrechten zu tun haben (?).



Antwort von klusterdegenerierung:

Danke!
USB3 Festplattenreader funktioniert an keinem USB Anschluß und ich habe 10 davon, Windows meint zu wenig Strom, egal ob ich das 2. Kabel auch verwende oder an USB2 gehe.

Fängt ja schon gut an! Etwa jedesmal die Platte aus dem Caddy schrauben?



Antwort von klusterdegenerierung:

Firmware ist aktuell und AVid kann man nicht wie bei Samurai lizensieren!



Antwort von Skeptiker:

Windows meint zu wenig Strom, egal ob ich das 2. Kabel auch verwende oder an USB2 gehe.
Ich kann nur von meinen Ninja sprechen:
Dort sind die zusätzlichen 5 Volt per 2. Kabel bei USB-3 Anschluss zwingend nötig.
Alternativ dazu könntest Du es mit einem Netzteil mit 5 Volt probieren, falls das Caddy-Computer-Interface in etwa vergleichbar mit dem des Ninja ist (dort gibt's einen 5 Volt DC In).



Antwort von klusterdegenerierung:

Windows hat die USB Ports auf Wunsch zurück gesetzt.
Jetzt funktioniert es zumindest an USB2.

Ist für Avid vielleicht die Kingston zu lahm?



Antwort von Kranich:

Magste ma was hochladen? :)
Haste ne gh4 dran? Wenn ja, wie is die Sync. So?



Antwort von mash_gh4:

na ja - dies scheint aber wohl nur bei der Ausgabe auf einen Monitor der Fall zu sein - da mit dem Playback wohl eh noch Probleme bestehen, könnte es daher rühren.

heute hat panasonic das angekündigte GH4 2.1 firmware-update um ein monat nach hinten verschoben und bei dieser gelegeheit erstmals ganz ausdrücklich von verbesserungen an der timecode-einbettung ins HDMIHDMI im Glossar erklärt signal gesprochen. (siehe: http://av.jpn.support.panasonic.com/sup ... _yagh.html )

es scheint also so zu sein, als ob an dieser sache nun wirklich ernsthaft gearbeitet werden würde. dafür können wir vermutlich atomos gar nicht dankbar genug sein.

dass unzählige benutzer irgendwo im netz schon länger über ähnliche probleme klagen, kümmert ja bekanntlich bei einem consumer produkt niemanden ernsthaft. da es sich aber nun langsam doch auch als entscheidendes problem in der zusammenarbeit mit anderen geräten erweisen dürfte, gibt es wieder eine gewisse hoffnung, dass da einiges endlich überprüft und bereinigt wird.

was dabei dann letztlich herauskommt -- wie weit man die dinge noch optimieren kann --, ist schwer vorherzusehen. wir können aber sicher alle nur davon profitieren, wenn derartigen mängeln unter dem fachkundig prüfenden blick anderer kollegen auf den grund gegangen wird.

es gibt doch etliche Leute die unverändert nicht glauben, dass eine wirkliche UHD Ausgabe mit 10bit 4:2:24:2:2 im Glossar erklärt über HDMIHDMI im Glossar erklärt 1.4b möglich ist.
...
Nur: auch Convergent Design hat recht klar gepostet - Links siehe oben - dass sie das können.

naja -- sie haben bisher nur ihrer ankündigung wahr gemacht, dass sie das selbe feature anbieten werden, wenn es der konkurrenz gelingt. umgesetzt haben sie es noch nicht! ;)

es ist also nicht unbedingt dem aktuellen preisverfall für russische video-software-spezialisten zu verdanken, dass sich da plötzlich innerhalb von ein paar tagen ganz neue möglichkeiten auftun. eher würde ich es als ziemlich durchschaubaren wettbewerb in puncto ankündigungspolitik verstehen.

ich staune allerdings schon ein bisschen darüber, wie sich in diesem fall die grenzen zwischen traditioneller produktentwicklung und modischem crowd-founding völlig aufzulösen scheinen.

aber ich bin es manchen akteuren durchaus vergönnt, kunden zu finden, die bereit sind, ein solches produkt zu erwerben, das in vielerlei hinsicht noch nicht richtig fertig entwickelt und ausgereift wirkt. wenn es ihnen dadurch in derart beeindruckender weise gelingt, den ganzen umliegenden markt in bewegung zu setzen und alle anderen beteiligten unter zugzwang zu bringen, kann das manchmal recht fruchtbare folgen zeigen. mich persönlich erinnert es jedenfalls recht angenehm an jenen pioniergeist, den man sonst nur in der freien software-szene spürt.

Wen interessiert der sichtbare Unterschied, wenn das Material eindeutig besser wird.

was den praktischen qualitätsgewinn durch externe 10bit aufzeichnung angeht, habe ich keine ganz so überschwänglichen erwartungen.

ich denke, man kann diesen punkt ohnehin schon jetzt an hand von standbildern, ausgehend von den RAW daten, ziemlich gut durchspielen und in seinen auswirkungen abschätzen.

ein bisserl werden die 10bit sicher bringen. vermutlich aber bei weitem nicht so viel, wie wir uns das alle wünschen würden. es schaut eher so aus, als ob die GH4 bereits jetzt ausgesprochen gut optimiert für ansehnliche 8bit ausgaben sein dürfte. wenn alles passt, kann man damit schon bisher ausgezeichnete resultate erzielen. um allerdings einen schritt darüber hinaus zu setzen und weitere nachträgliche korrekturmöglichkeiten zu erschlißen bzw. den dynamikumfang des sensors voll auszuschöpfen, müssten grundsätzlichere änderungen zugänglich werden. genau jene erweiterungen also, die ohnehin bei jedem firmware-update wieder auf neue in gestalt der bekannten gerüchte in allen einschlägigen foren sehnlichst erträumt werden. technisch wäre vieles davon gewiss bereits jetzt auf der basis der vorhandenen hardware realisierbar, trotzdem werden wir die notwendigen features vermutlich erst in zukünftigen modellen zu gesicht bekommen. aber so ist das halt mit den etwas weniger erfreulichen klassischen modellen zurückhaltender produktpflege.



Antwort von DV_Chris:

Leider habe ich selbst das Gerät noch nicht - bin gespannt ob das bis Weihnachten klappt.

Hier spricht Dein Händler: es wird klappen.



Antwort von wolfgang:

Na dann kann ich ja schon den Weihnachtsbaum aufstellen!



Antwort von wolfgang:

naja -- sie haben bisher nur ihrer ankündigung wahr gemacht, dass sie das selbe feature anbieten werden, wenn es der konkurrenz gelingt. umgesetzt haben sie es noch nicht! ;)

es ist also nicht unbedingt dem aktuellen preisverfall für russische video-software-spezialisten zu verdanken, dass sich da plötzlich innerhalb von ein paar tagen ganz neue möglichkeiten auftun. eher würde ich es als ziemlich durchschaubaren wettbewerb in puncto ankündigungspolitik verstehen.

Also auch Panasonic hat ja bei der GH4 die 10bit 4:2:24:2:2 im Glossar erklärt spezifiziert. Und ich vertehe ja wenn man das kleineren Firmen nicht glaubt - aber glauben wir das auch Panasonic nicht?

So gesehen ist das nicht einmal Ankündigungspolitik, sondern da die GH4 ja auch nur über hdmi ausgibt eigentlich gar keine Neuigkeit mehr, dass Hersteller sagen dass sie das können.



Antwort von Stephan_Kexel:

Das verstehe ich! :-)
Habe ich was verpasst oder ist es normal das ich den AVid CodecCodec im Glossar erklärt nicht anwählen kann?

Wir implementieren einen neuen Avid DNX CodecCodec im Glossar erklärt für 4k. Dieser CodecCodec im Glossar erklärt ist aber noch nicht von Avid frei gegeben. Sobald dieser freigegeben ist gibt es von uns sofort ein kostenloses FW update.

Viele Grüße

Stephan



Antwort von klusterdegenerierung:

Das verstehe ich! :-)
Habe ich was verpasst oder ist es normal das ich den AVid CodecCodec im Glossar erklärt nicht anwählen kann?

Wir implementieren einen neuen Avid DNX CodecCodec im Glossar erklärt für 4k. Dieser CodecCodec im Glossar erklärt ist aber noch nicht von Avid frei gegeben. Sobald dieser freigegeben ist gibt es von uns sofort ein kostenloses FW update.

Viele Grüße

Stephan

Wir?



Antwort von DV_Chris:

Stephan Kexel ist seit knapp 20 Jahren ein bekannte Größe im professionellen Videoumfeld und Vice President Sales, EMEA at ATOMOS. Also kann er beruhigt "wir" schreiben ;-)



Antwort von klusterdegenerierung:

Ahh! ;-)

Ok, hallo Stefan, gibt es dafür auch schon einen Termin?
Und auch dafür wann eine Pulldown funktion bzw. ich auch 1080p1080p im Glossar erklärt bei 4K Signal einstellen kann?

Danke :-))



Antwort von wolfgang:

Das verstehe ich! :-)
Habe ich was verpasst oder ist es normal das ich den AVid CodecCodec im Glossar erklärt nicht anwählen kann?

Wir implementieren einen neuen Avid DNX CodecCodec im Glossar erklärt für 4k. Dieser CodecCodec im Glossar erklärt ist aber noch nicht von Avid frei gegeben. Sobald dieser freigegeben ist gibt es von uns sofort ein kostenloses FW update.

Viele Grüße

Stephan

Stephan, das sind ausgesprochen gute Nachrichten! Denn nicht jede NLE kann mit ProResProRes im Glossar erklärt problemlos umgehen - darum habe ich in Vegas eher mit DNxHDDNxHD im Glossar erklärt gearbeitet. Hoffe das geht mit dem neuen CodecCodec im Glossar erklärt ebensogut.



Antwort von mash_gh4:

Also auch Panasonic hat ja bei der GH4 die 10bit 4:2:24:2:2 im Glossar erklärt spezifiziert. Und ich verstehe ja, wenn man das kleineren Firmen nicht glaubt - aber glauben wir das auch Panasonic nicht?

naja -- es gibt schon einiges, das panasonic in seiner feature-list aufzählt, das man besser schnell wieder vergisst, wenn man befriedigende resultate erzielen will. die ganze timecode/synchronitätsprobleme sind ein wunderbares beispiel dafür. es betrifft aber durchaus auch ganz einfache dinge, wie die eher durchschnittliche 1080p- od. zeitlupen-bildqualität.

im falle der hdmi begrenzungen stellt sich halt auch das problem, dass so etwas erst dann sinn macht bzw. tatsächlich 'funktioniert', wenn es auch ein gegenüber gibt, das die entsprechende kommunikation reibungslos akzeptiert. so kann ja auch atomos jederzeit behaupten, dass manche dinge bereits ausreichend unterstützt würden, wenn nur die kamerahersteller entsprechende anpassungen an ihrer ausgabe vornehmen würden.

so kommt man dann halt irgendwann zu lösungen, die sich zwar über spezielle atomos-panasonic-protokollanpassungen wunderbar verstehen, aber mit den gebräuchlichen konventionen und beschränkungen der umgebenden gerätelandschaft nicht mehr viel gemein haben. im gegenständlichen fall ist das auch sicher nicht weiter problematisch, da sich ja vorerst nur ganz wenige spezialgeräte in diese exotischen nische tummeln. eine wesentlich günstigere ausgereifte umsetzung bzw. völlig unspektakuläre unterstützung entsprechender features wird es trotzdem erst mit der verbereitung von hdmi 2.0 und entsprechenden komponenten geben. die meisten gebräuchliche interface-lösungen lassen sich nicht einfach durch ein firmware-update beliebig modifizieren, weil für die interne bildrepräsentation bereits in der hardware klare vorgaben und grenzen festgelegt sind. im besten fall können wir uns wünschen, dass sich diese gegenständlichen aktuellen vorreiter auch noch im hinblick auf diesen kommenden mainstream an hdmi 2.0 produkten als ausreichend kompatibel erweisen. im bereich der computer-monitore kann man dieses dilemma momentan ohnehin recht gut mitverfolgen.

So gesehen ist das nicht einmal Ankündigungspolitik, sondern da die GH4 ja auch nur über hdmi ausgibt eigentlich gar keine Neuigkeit mehr, dass Hersteller sagen dass sie das können.

möglicherweise unterstützt das BMD ultrastudio 4K die betreffenden features schon eine ganze weile und trotzdem kümmert es niemanden.

vermutlich würdest du ja auch nur ein mitleidiges lächeln ernten, wenn du einem fotografen ganz stolz erzählst, dass deine neue kamera zwar leider keine ausgabe als RAW erlaubt, aber dafür unter zuhilfenahme aufwendiger add-ons 12bit JPGs exportiert. ;)

dass ist natürlich jetzt ein bisserl polemisch. in wahrheit finde ich es auch ganz ausgesprochen fein, dass mit diesen aktuellen geräten die latte für alle beteiligten wieder ein wenig höher gehängt wird. vermutlich dürften wir uns also auch von der internen aufzeichnung günstiger kameras in kürze vergleichbares erwarten. darüber vermag auch ich mich vorbehaltlos zu freuen.



Antwort von Stephan_Kexel:



der shogun würde sich hier also geradezu anbieten, um diesem problem zu entkommen. aber so wie es sich momentan darstellt, dürfte es dadurch nur noch schlimmer werden.

Alle unsere Rekorder, auch natürlich der Shogun, haben eine Einstellmöglichkeit einen Audio/Video Versatz zu kompensieren. Die GH-4 ist ja nicht die einzigste Kamera die extern das Problem hat. Canon 5DMark 3 hat 5 Frames und einige Nikon Camera's 8 Frames. Unsere Einstellung kann bis zu 54 Frames kompensieren.

Viele Grüße

Stephan
Atomos GmbH



Antwort von Stephan_Kexel:

Es erscheint in kürze ein Podcast über den Shogun von Stefan Czech indem man anschaulich sehen kann das die GH-4 bei externer 4k Aufnahme über HDMIHDMI im Glossar erklärt 10 bit ausgibt.

Ich finde die Stimmungsmache über Geräte die man gar nicht hat, bzw. keine Nachprüfmöglichkeit hat, hier etwas bedenklich.

Viele Grüße

Stephan



Antwort von Stephan_Kexel:

Ahh! ;-)

Ok, hallo Stefan, gibt es dafür auch schon einen Termin?
Und auch dafür wann eine Pulldown funktion bzw. ich auch 1080p1080p im Glossar erklärt bei 4K Signal einstellen kann?

Danke :-))

Termin für was? Der Avid CodecCodec im Glossar erklärt liegt nicht in unserer Hand, den können wir erst freigeben wenn Avid das tut. Wie oben schon geschrieben erwarten wir das im Januar.

Pulldown? Ich wüsste nicht warum der Pulldown nicht funktionieren sollte.

1080p bei 4K Signal? Wir zeichnen auf was die Kamera und anbietet, wir konvertieren nicht im Shogun 4k nach 1080p.

Viele Grüße

Stephan



Antwort von Jott:

Ich finde die Stimmungsmache über Geräte die man gar nicht hat, bzw. keine Nachprüfmöglichkeit hat, hier etwas bedenklich.

Ist kein Einzelfall, wird hier gerne so gehandhabt.



Antwort von CameraRick:


Ist für Avid vielleicht die Kingston zu lahm?
Gibt ja schon eine Antwort zur Problematik, aber hier noch eine zur SSD:

DNxHD ist in seiner größten Version nach MediaInfo etwa 360Mbit schwer (DNxHD 444, 10bit 25p, kein Alpha).
Das entspricht dann nur etwa 45MB/s und ist damit auch Pi mal Daumen halb so schwer wie ProRes 422ProRes 422 im Glossar erklärt HQ bei UHD (731Mbit, 25p kein Alpha, nach Tabelle).



Antwort von TonBild:

Hier das offizielle Vorstellungs-Video:

Danke Stephan für den Link.

Bei den vier schweren XLR-Stecker, die frei an einem so dünnen Kabel und Stecker an dem Atomos Shogun 4K Recorder hängen, wird die Audioverbindung sicher sehr schnell zusammen brechen oder zumindest unzuverlässig arbeiten.

Was meint Ihr?

Sind bei dieser Lösung mit den frei hängenden Audio-Steckern nicht Kabelbrüche oder Wackelkontakte vorprogramiert?



Antwort von DV_Chris:

Sind bei dieser Lösung mit den frei hängenden Audio-Steckern nicht Kabelbrüche oder Wackelkontakte vorprogramiert?

Wer beim Feldeinsatz von professionellen Geräten nicht weiß, wie er eine Zugentlastung realisiert, der sollte mal ein paar Wochen als Assistent einlegen ;-)



Antwort von TonBild:

Sind bei dieser Lösung mit den frei hängenden Audio-Steckern nicht Kabelbrüche oder Wackelkontakte vorprogramiert?

Wer beim Feldeinsatz von professionellen Geräten nicht weiß, wie er eine Zugentlastung realisiert, der sollte mal ein paar Wochen als Assistent einlegen ;-)

Nein, das hat damit nichts zu tun. Gerade wenn Geräte für den professionellen, also werktäglichen Einsatz konstruiert werden, sollten die Produktentwickler darauf achten, dass es solche Schwachstellen erst gar nicht gibt und nicht durch Kameraassistenten notdürftig beseitigt werden müssen.

Schau Dir mal die Sony PXW-F7 auf

http://www.fstopacademy.com/wp-content/ ... -FS739.jpg

an. Am Monitor- und Audiokabel siehst Du, wie gut die Ingenieure gearbeitet haben. Beide Kabel verlaufen parallel zur und geschützt an der Kamera (so können die Kabel kaum abreißen) und verwenden robuste Stecker / Buchsen. Eine Zugentlastung, die durch einen Assistenten gebastelt werden muss, ist hier gar nicht nötig.

Warum soll ähnliches nicht auch bei Atomos möglich sein?



Antwort von iasi:



der shogun würde sich hier also geradezu anbieten, um diesem problem zu entkommen. aber so wie es sich momentan darstellt, dürfte es dadurch nur noch schlimmer werden.

Alle unsere Rekorder, auch natürlich der Shogun, haben eine Einstellmöglichkeit einen Audio/Video Versatz zu kompensieren. Die GH-4 ist ja nicht die einzigste Kamera die extern das Problem hat. Canon 5DMark 3 hat 5 Frames und einige Nikon Camera's 8 Frames. Unsere Einstellung kann bis zu 54 Frames kompensieren.

Viele Grüße

Stephan
Atomos GmbH

gut gut
Ist dieser Versatz bei jedem Modell immer gleich und vielleicht auch als Preset abrufbar?



Antwort von DV_Chris:

Am Monitor- und Audiokabel siehst Du, wie gut die Ingenieure gearbeitet haben. Beide Kabel verlaufen parallel zur und geschützt an der Kamera (so können die Kabel kaum abreißen) und verwenden robuste Stecker / Buchsen. Eine Zugentlastung, die durch einen Assistenten gebastelt werden muss, ist hier gar nicht nötig.

Warum soll ähnliches nicht auch bei Atomos möglich sein?

Wie oft tritt der Fall ein, dass man Ton extern in den Shogun embedden wird?



Antwort von TonBild:

Am Monitor- und Audiokabel siehst Du, wie gut die Ingenieure gearbeitet haben. Beide Kabel verlaufen parallel zur und geschützt an der Kamera (so können die Kabel kaum abreißen) und verwenden robuste Stecker / Buchsen. Eine Zugentlastung, die durch einen Assistenten gebastelt werden muss, ist hier gar nicht nötig.

Warum soll ähnliches nicht auch bei Atomos möglich sein?

Wie oft tritt der Fall ein, dass man Ton extern in den Shogun embedden wird?

Wenn ich es richtig verstanden habe, dann besteht bei Atomos mit dem neuen Shogun erstmals die Möglichkeit, professionelle symmetrische Audiosignale in/out (inklusive Phantomspannung) per XLRXLR im Glossar erklärt zu nutzen.

Wenn der Shogun gute Mirofonverstärker hat, dann wird man diesen neuen Eingang sehr oft (um nicht zu sagen eigentlich immer) nutzen wollen. Denn bisher war es nicht möglich, hochwertige externe Mikrofone mit Phantomspannung mit Atomos Geräten direkt zu nutzen.

Wäre doch schade, wenn das an einem defekten oder unzuverlässigen Kabel bzw. an nicht robust genug ausgeführten Stecker / Buchsen scheitern sollte.



Antwort von Stephan_Kexel:



Wäre doch schade, wenn das an einem defekten oder unzuverlässigen Kabel bzw. an nicht robust genug ausgeführten Stecker / Buchsen scheitern sollte.

Die externen Atomos Audiokabel sind nicht defekt oder unzuverlässig. Sie sind genau für diesen Einsatz gemacht.

Viele Grüße

Stephan



Antwort von TonBild:


Die externen Atomos Audiokabel sind nicht defekt oder unzuverlässig. Sie sind genau für diesen Einsatz gemacht.

Hallo Stephan,

ich kenne ja nur das Video und nicht das Gerät aus eigener Erfahrung. Kann natürlich sein, dass es dann anders wirkt.

Aber wenn ich mir hier im Video



ab ca. 5:00 im anschaue, wie das spezielle Atomos Audiokabel an dem kleinen Stecker horizontal nach rechts zeigt und von den schweren vertikalen XLR-Adaptern mit entsprechener Hebelwirkung nach unten gedrückt wird, mache ich mir schon Sorgen, dass die im Atomos eingebaute Audiobuchse (ist das ein proprietärer Anschluss?) nicht mit der Zeit ausleihert oder beschädigt wird. Ist mir an einer Kamera schon mit anderen Anschlüssen passiert. Und vier längere XLRXLR im Glossar erklärt Kabel, die man dann an den Adapter anschließt, haben auch ein sehr hohes Gewicht, welches dann mit Hebelwirkung an der kleinen Buchse komplett anliegt.

Wenn zumindest die im Atomos eingebaute Audiobuchse an der Unterseite des Gerätes plaziert worden wäre wären zumindest die Scherkräfte auf diese kleine Audiobuchse nicht mehr ganz so groß und die Kabel würden auch nicht geknickt. Aber das würde dann sicher Platzprobleme mit der Kamera erzeugen.

Eine andere Alternative wäre ein Winkelstecker wie bei dem Stromversorgungs- oder Kopfhörerkabel.



Antwort von srone:

atomos verwendet hier eine lemo buchse+stecker, bevor du die kaputt bekommst, wird es wohl den ganzen shogun zerreissen, aber winkelstecker wäre praktischer, da nicht so abstehend.

lg

srone



Antwort von TonBild:

atomos verwendet hier eine lemo buchse+stecker, bevor du die kaputt bekommst, wird es wohl den ganzen shogun zerreissen, aber winkelstecker wäre praktischer, da nicht so abstehend.

Es gibt ja rechtwinklige Lemo-Stecker
http://intra.lemo.ch/catalog/ROW/UK_Eng ... w_plug.pdf

Vielleicht könnte man sich damit etwas basteln, was auch auf die eigenen Bedürfnisse besser passt.

Meist braucht man ja nur die Mikrofoneingänge, so dass man auf die beiden schweren XLR-Out Stecker schon verzichten kann. Und dann könnte man das Kabel (am besten ein leichtes) noch so viel länger machen, so dass man gar kein schweres XLR-Verlängerungskabel mehr braucht.

Dann wäre der XLR-Adapter direkt am Mikrofon, wo er nicht mehr stört.

Praktisch wäre also ein Kabelsortiment unterschiedlicher Längen mit Lemowinkelstecker für die unterschiedlichen Anwendungen. Z. B. ein kurzes Kabel für das an der Kamera montierte Mirkro oder dem Funkempfänger und ein längeres für Interviews oder zum direkten Anschluss an ein Mischpult.

Ein Winkelstecker wäre auch für das Videokabel praktischer, da nicht so abstehend.



Antwort von klusterdegenerierung:

Hallo Stefan,
jetzt habe ich langsam doch Mitleid mit Dir!

Dir macht man es hier wirklich nicht einfach.
Und sorry wenn ich dumme Fragen stelle, ist mein erster Recorder.
Ich war davon ausgegangen das ich ein mal 4K an der GH4 einstellen und dann am Shogun die jeweilige Auflösung und Famerate wählen kann.

Dies scheint dann wohl nicht so zu sein und ich muß erst immer in das Cam Menü und die HDMIHDMI im Glossar erklärt Ausgabe von 4K auf 1080 stellen?
Ich würd ja auch gerne mal die Slomofunktion nutzen, kann ich das dann überhaupt?

Atomos hat mir Heute eine Email geschickt und mir auch geschrieben, das man den Avid CodecCodec im Glossar erklärt ab Januar durch ein Firmware update, im Zuge des Playback updates nutzen kann.

Stefan, ich habe einen Spyder 4 Pro, kann ich diesen, vielleicht mit einem Zubehöradapter, auch nutzen oder müßte ich mir einen Atomos Spyder kaufen?

Danke für Deinen langen Atem hier! ;-)

Nachtrag:
Die Anschlüsse am Shogun sind alle wertig und mit dem Stecker im Audioanschluß, kann ich meine Tochter auf dem Bobbycar ziehen.
Keine Panik, der geht als letztes kaputt, da kauf ich mir doch lieber sofort ne iPad Schutzfolie und papp die auf dem mit Bonerwax polierten Touchglas.

Wenn ich da auch nur einen Kratzer drauf sehe, haue ich meinen Assi aus den Schuhen, wobei der schläft ja meistens! ;-):-)



Antwort von klusterdegenerierung:

Also wer mit dem Shogun längere Drehs einplant, der wird wohl ohne Strom aus der Dose kaum klar kommen.

Ein normaler voller Akku hielt hier gerade bei mir nur ca. 10min in Pausenfunktion.
Ich habe jetzt mal zum test einen großen Swit dran gehangen.

Was der stabilisierung am Rig oder am Stativ ganz gut tut undwofür ich auch gleichzeitig Atomos loben muß, ist die Möglichkeit den Recorder unten und oben gleichermaßen über die üblichen Gewinde zu befestigen und das Bild inkl. Menü zu flippen.

Da es ja ein Touchsreen ist und man dann doch häufiger draufrum daddelt, erschien mir die Lösung ihn über 2 Magicarme zu fixieren, sehr praktisch und sicher.

Ich habe mal 2 Bilder vom Setup an gehangen.

Meine 5DII hatte ich auch mal dran, funktioniert gut, leider ist das Livebild nur ca. 75% des ganzen Monis groß.
Die Daten der 5D habe ich noch nicht gesichtet.
Die der GH4 sind auf HQ 845Mbit groß und in Speedgrade und Premiere gut zu verarbeiten.
Sowohl in den Tiefen, als auch in den höhen steckt merklich mehr Potential.

Am meisten bin ich aber auf die verarbeitung in Davinci gespannt.
Hoffe euch mit meinen ersten Erkenntnissen bereichert zu haben? ;-)



Antwort von Jensli:


Ein normaler voller Akku hielt hier gerade bei mir nur ca. 10min in Pausenfunktion.

whuuut???? Das ist doch nicht deren Ernst?



Antwort von TonBild:


Die Anschlüsse am Shogun sind alle wertig und mit dem Stecker im Audioanschluß, kann ich meine Tochter auf dem Bobbycar ziehen.
Keine Panik, der geht als letztes kaputt

Wozu die LEMO-Stecker doch alles gut sind. ;-)

Aber wenn Du Deine Tochter auf dem Bobbycar ziehst wirkt an den Steckern lediglich eine Zugkraft. Und für diesen Zweck könntest Du im Zweifel auch eine dünne Schnur benutzen.

Aber wenn man am waagerecht angebrachten Lemo-Stecker am Kabel senkrecht nach unten zieht, so wird das Kabel unweigerlich geknickt. Das passiert nicht, wenn Du Deine Tochter auf dem Bobbycar ziehst.

Ok, an dieser Stelle hat das Atomos Kabel einen Knickschutz, aber wenn das oft so genutzt wird, dann wird irgendwann genau an dieser Stelle ein Kabelbruch eintreten.

Außerdem sind die Lemo-Stecker und deren Verankerung im Shogun sicher empfindlicher wenn man sie seitlich belastet als wenn man nur an ihnen zieht.

Wie schon geschrieben hatten wir große Probleme mit Kabeln, die auch waagerecht in die Kamera gesteckt wurden. Diese haben, obwohl nur mit dem Eigengewicht belastet, mit der Zeit die Kamerabuchse beschädigt.

Die Reparatur der Kamera war dann so teuer dass man dafür schon einen halben Shogun kaufen kann. Also die Beschädigung so einer kleinen Buchse kann ganz schön teuer werden. Erst recht, wenn sie während einer Produktion Störungen verursacht. Aber das gibt nur für unsere Erfahrungen. Vielleicht ist das ja alles beim Shogun kein Problem.

Die Ingenieure versuchen bei solchen Produkten natürlich viele Funktionen und Anschlüsse auf kleinstem Raum unter zu bringen so dass man aufgrund vieler Features effektives Marketing betreiben kann. Aber so werden auch die Buchsen diverser Anschlüsse immer kleiner und empfindlicher. Das ist bei sehr vielen Geräten leider so. Und das, obwohl die Verwendung größerer stabilerer Anschlüsse gar nicht wesentlich teurer wäre.

Hier kann man sehr schön sehen, wie stabile Buchsen man bei Sony verwendet:



Interessant:
- die Kopfhörerbuchse geht senkrecht nach unten. Bei einem Kopfhörer ohne Winkelstecker wäre das optimal.
- die XLR-Buchsen verlaufen parallel zur Kamera, kein Kabel steht nach außen
- es wird die größere HDMI-Geräte-Steckbuchse Typ A und nicht die bei Tablet-Computern üblichen Micro-HDMI-Typ-D-Anschlüsse verwendet
- es gibt zwei stabile BNC Buchsen für den SDI-Ausgang statt Micro-HDMI wie bei vielen DSLRs (BNC Buchsen hat der Shogun aber auch)
- außerdem können mit Hilfe des MI-Schuhadapters (Multi Interface) SMAD-P3 die Drahtlosempfänger der UWP-D-Serie ohne jegliche Kabel verbunden werden



Antwort von Valentino:

Welcher Akku und wie alt war er? Wie verhält er sich an anderen Geräten?

Kann mit das mit den 10min beim besten Willen nicht vorstellen, aber es gibt ja genug andere Möglichkeiten den Rekorder mit Strom zu versorgen.

Über D-Tap und 90Wh V-Mount sollten schon ein paar Stunden drin sein.



Antwort von DV_Chris:

Der Shogun wird mit einem NP Akku geliefert. Atomos gibt folgende Laufzeiten an:

2600mAh - up to 3hrs
5200mAh - up to 5hrs
7800mAh - up to 8hrs



Antwort von klusterdegenerierung:

Welcher Akku und wie alt war er? Wie verhält er sich an anderen Geräten?

Kann mit das mit den 10min beim besten Willen nicht vorstellen, aber es gibt ja genug andere Möglichkeiten den Rekorder mit Strom zu versorgen.

Über D-Tap und 90Wh V-Mount sollten schon ein paar Stunden drin sein.

Ja das muß ich wirklich noch mal genauer testen, denn ich hatte jetzt einen Noname mit gewisser Laufzeit. Allerdings habe ich mich schon dazu verleiten lassen es so zu schreiben, da ich ihn an meinem 7" Fieldmonitor min eine halbe Stunde nutzen kann.

Morgen werde ich mal den Mitgelieferten voll machen und bis zum schluß stoppen.
Allerdings kann man sich ja Heute auf die Batterisstandsanzeigen auch nicht mehr so verlassen, denn mit meiner Pocket konnte ich bei Leer noch mal genau so lange aufnehmen wie bei bis halb voll! ;-)

Das mit dem ganzen Stecker Theater ist natürlich schon richtig und imgrunde ist es alles popelzeug, aber wenn man es mit bedacht behandelt und sich eine eigene Zugentlastung bastelt, kann man damit bestimmt ganz gut leben.

Ich denke das auch niemand von uns die XLRXLR im Glossar erklärt Stecker so provokant runterbaumeln lässt wie der von Atomos. Ich würde sie bei benutzung auf jeden Fall irgendwo festzurren oder fixieren.

Das mit dem Bobbycar war natürlich auch im senkrechten Zustand des Recorders gemeint :-) ;-)



Antwort von StefanFilm:


Zudem bereite ich gerade eine umfassende Review vor, in der ich u.a. für verschieden Kameras deren Menueeinstellung und eigenheiten zusammen mit dem Shogun erkläre.
Kurze Sneak dazu:

Hallo Stefan,

willkommen im Forum. Freu mich auf die Review.

Gruß aus Bockenheim ;)

Hallo slachCam forum,
meine Review zum Atomos Shogun ist fertig und seit heute online.
Bestimmt wird die ein oder andere Frage hier beantwortet.

http://vimeo.com/stefanfilm/atomos-shogun

Eine Sache auf die ich in meiner Review nicht eingegangen bin, die hier aber extrem die Gemüter bewegt ist die Videoverzögerung über HDMI.
Ich kann die Aufregung hier nicht so ganz nachvollziehen. Diese Eigenschaft kommt von der Übertragung allgemein und ist bei allen Kameras zu beobachten.
Die Canon 5D Mark III hat 6-7frames, die GH4 4-5. Und selbst eine Sony EX1/EX3 hat über SDISDI im Glossar erklärt, welche auch im profesionellen Einsatz ständig über diese Leitung an Mixer und im Studioverbund betrieben wird, 4-5 frames Verzögerung.

Da nach der Sensorauslesung in allen Kameras einige Berechnungen zur Verarbeitung, Codierung etc. ablaufen und die Weiterleitung per HDMI/SDI nicht an erster Stelle steht ist das also nicht wirklich etwas besonderes.
Es werden meist dann die progesive frames in PSF umgewandelt um sie aus der Kamera aus zu geben. Und auch das kostet Zeit.
Man kann damit aber ohne weiteres Arbeiten, wenn man entsprechen damit um zu gehen weiß ist das auch kein Problem.
MfG
Stefan



Antwort von motiongroup:

schön gemachte Vorstellung..

sind wir mal ehrlich, die leidige HDMIHDMI im Glossar erklärt 8/10bit 4:2:04:2:0 im Glossar erklärt 4:2:24:2:2 im Glossar erklärt Diskussion wäre keine gewesen so einer der Hersteller oder eben auch die HDMI.org klare Aussagen über die specs. gegeben hätten...

Ein Hr. Kexel an der Quelle sagt aus und belegt fertig.. basierend auf den specs. des hdmi Konsortiums und das ab Beginn der leidigen Diskussion.
Ich denke auch nicht, dass in den Aussagen der hier Schreibenden irgendeine Art von Schlechtrederei gegenüber den Produkten betrieben wird. Es wurde einfach generell die Möglichkeit der 10bit 4:2:24:2:2 im Glossar erklärt 4k30p via hdmi 1.4b in Frage gestellt.
Diese Frage stellt sich aber generell nicht nur um das Thema shogun drehend, sonder auch um convergent und allen Camera Herstellern die dieses Feature anbieten würden und werden.

Ein Produkt schlecht reden? Nein das sieht anders aus Herr Kexel, werfen Sie mal einen Blick in die Runde und es fällt Ihnen wie Schuppen von den Augen.

Sonst Gratulation zum shogun, tolles Produkt wie die Ninjas auch..



Antwort von crackerjack:

nett

A7s mit 10 bit - wie geht das?



Antwort von Bruno Peter:

Es erscheint in kürze ein Podcast über den Shogun von Stefan Czech indem man anschaulich sehen kann das die GH-4 bei externer 4k Aufnahme über HDMIHDMI im Glossar erklärt 10 bit ausgibt.

Ich finde die Stimmungsmache über Geräte die man gar nicht hat, bzw. keine Nachprüfmöglichkeit hat, hier etwas bedenklich.

Viele Grüße

Stephan

Stimmungsmache?

Nein nicht schon wieder..., Sie zeigen ja ein Verhalten wie damals unter Canopus als Sie Anwender etwas in die Mangel genommen haben.
Legen Sie dieses Vehalten ab und lernen Sie etwas aus der Diskussion hier.

Ich finde jedenfalls die Diskussion hier sehr nützlich!



Antwort von klusterdegenerierung:

Ho ho ho!
Gratulation Stefan!!
Da hast Du Dir aber wirklich viel Arbeit gemacht!

Toll gemacht, schön auch Dein 8bit / 10bit Vergleich, endlich weiß ich (wie WoWu schon vermutet hatte) das mein Dell kein echter 10Bit Monitor ist! :-)

Womit hast Du denn das Material verarbeitet und hattest Du jetzt mehr Möglichkeiten als ohne Shogun?

Schön das Du auch Shogun sagst und nicht wie die Amis Showgohn ;-)

Danke für das Review! :-)



Antwort von Skeptiker:

@StefanFilm:

Auch von mir Dank & Kompliment für die vertiefte Shogun-Vorstellung!
Und den 8bit/10bit-Vergleich, der optisch eigentlich eher ein 8bit 4:2:04:2:0 im Glossar erklärt versus 8bit 4:2:24:2:2 im Glossar erklärt Vergleich ist, fand ich durch das Hervorheben des Banding-Effekts auch interessant!

Skeptiker (Ninja2-Besitzer)



Antwort von iasi:

Sollte die Qualität von Monitorbild und Bild/Ton-Aufzeichnung den Werbetexten entsprechen, ist das ein sehr preiswertes Gerät.

Die Delay-Problematik ist natürlich nicht ohne - 6fps sind nicht wenig.

Was wirklich stört ist der Ton-Kabelbaum, der sehr ungünstig absteht. Auch wenn Stecker und Buchse das aushalten, bringt es doch durch die Hebelwirkung schnell Unruhe rein.
Vielleicht würde ein Winkelstecker und längere Kabel zu den Buchsen Abhilfe schaffen - so ein Kabel treibt den Gesamtpreis dann aber nochmal ordentlich in die Höhe und steht in keiner Relation zum Gerätepreis.



Antwort von domain:

Toller Test und hochinteressanter Recorder, vor allem auch wegen des weiterentwickelten Zebras und der eingebauten LUTs zur realistischen Bildbeurteilung.
Jetzt müssten eigentlich nur noch die Gehäuse der filmenden Fotoapparate so groß werden, dass es keinen Kabel-Kladderadatsch mehr gibt, zwei SSD-Einschübe und variabel große Akkus ermöglichen würden sowie integrierte XLR-Buchsen und vor allem ein wirklich großes Display zur Bildbeurteilung ;-)



Antwort von klusterdegenerierung:

Jetzt müssten eigentlich nur noch die Gehäuse der filmenden Fotoapparate so groß werden, dass es keinen Kabel-Kladderadatsch mehr gibt, zwei SSD-Einschübe und variabel große Akkus ermöglichen würden sowie integrierte XLR-Buchsen und vor allem ein wirklich großes Display zur Bildbeurteilung ;-)

Also ne URSA? Lol :-)))



Antwort von klusterdegenerierung:

Frage an die Audioexperten.

Eigentlich zeichne ich Ton extern mit einem Sennheiser über einen H4n auf und synche dann mit dem Cam internen Mic.

Meint ihr ich kann jetzt auf den ZoomZoom im Glossar erklärt verzichten und alles genauso gut mit dem Shogun machen? Wäre schön weil der ZoomZoom im Glossar erklärt ist schon Leer wenn er neue Batterien bekommen hat! ;-)



Antwort von wolfgang:


http://vimeo.com/stefanfilm/atomos-shogun

Großartiger Review, Stefan.

Ich habe leider meinen Shogun noch nicht. Aber genau über das Banding hätte ich auch den Nachweis geführt, was der Unterschied zwischen 10bit 4:2:24:2:2 im Glossar erklärt, 8bit 4:2:24:2:2 im Glossar erklärt und 8bit 4:2:04:2:0 im Glossar erklärt ist. Und den sieht man hier einmal wirklich.

@ Stephan Kexel,
du arbeitest ja im Moment für Atomos, und ich finde es in eurer Kommunikation extrem unglücklich dass ihr es nicht schafft, euch klar auf die Hinterbeine zu stellen und mal zu sagen: "Jawohl Leute, es ist technisch möglich über HDMIHDMI im Glossar erklärt 1.4b eben auch UHD/4K mit 10 bit 4:2:24:2:2 im Glossar erklärt zu übertragen. Unser Shogun verwendet dieses Feature, und wir stehen dazu." Das hat zumindest Convergent Design so gemacht.

Der Umstand, dass ihr das nicht macht, ist für viele potentiellen Käufer ein Grund für Unsicherheit und Verwirrung - und wohl dann auch für einige der Grund dann eben nicht zu kaufen.

Wir kennen uns lange und auch kurz persönlich - und du weißt genau dass ich ein großer Fan und Beführworter von euren Produken bin. Und auch selbst gekauft habe. Aber ich fühle mich auch den Usern gegenüber verantwortlich, die in unseren Foren Ratschläge erwarten - und das zu Recht. Es ist daher keine Stimmungsmache gegen das tolle Produkt. Sondern die sehr verständliche Frage von euren Kunden was hier eigentlich technisch wirklich Sache ist. Und sowas unbeantwortet zu lassen finde ich als schwierig.



Antwort von Kranich:

Ja vielen Dank für diesen Beitrag!

Könnte denn mal ein Shogun + GH4 Besitzer einen Testclip machen und hochladen?
Würde mir die sache gern mal vom nahem anschauen :)

Wäre super!



Antwort von TonBild:


Jetzt müssten eigentlich nur noch die Gehäuse der filmenden Fotoapparate so groß werden, dass es keinen Kabel-Kladderadatsch mehr gibt, zwei SSD-Einschübe und variabel große Akkus ermöglichen würden sowie integrierte XLR-Buchsen und vor allem ein wirklich großes Display zur Bildbeurteilung ;-)

Du meinst, die Kamera auf
https://www.blackmagicdesign.com/de/pro ... kmagicursa
sollte noch eine Fotofunktion bekommen?
;-)



Antwort von TonBild:


http://vimeo.com/stefanfilm/atomos-shogun

Eine Sache auf die ich in meiner Review nicht eingegangen bin,

... ist auch die hier schon angesprochene Audiokabelgeschichte. Bei Deinen Aufnahmen ist der Shogun oft nur mit dem HDMIHDMI im Glossar erklärt Kabel zu sehen, selbst bei den Außenaufnahmen ab 19:57 und sogar bei den dem Musikvideo ab 20:24 auf



Wenn Du diese mit dem tollen Atomos Shogun 4K Recorder aufgenommenen Videos abspielst, dann sind das doch Stummfilme?
Oder wird der Kameraton auch über das HDMIHDMI im Glossar erklärt Kabel übertragen?

Bei 20:24 sieht man es deutlich: Die Kamera zeigt einen Tonpegel an, der tolle Atomos Shogun 4K Recorder mit XLR-Anschlüssen dagegen nicht. Hast Du damit wirklich, wie im Off-Text gesagt, damit ein Musikvideo aufgenommen? Oder einen Stummfilm?

Auf http://youtu.be/XXMLjBR4lzI

steht:
"Stefan Czech and his Team shot the very first music video on a Sony A7S and the Atomos Shogun in 4k UHD."

Woher kam der Ton?

Auch wenn man den O-Ton dann für Musikvideos meist nicht nutzt oder man ein externes Aufnahmegerät verwendet, wäre dieser doch zumindest für die Synchronisation hilfreich. Warum hast Du dann in dieser Situation kein Mikro an den Shogun angeschlossen?

Ansonsten natürlich ein sehr informatives Video. Danke Dir.



Antwort von iasi:

Musikvideos findet man doch eher selten mit Live-Tonaufnahmen



Antwort von klusterdegenerierung:

@TonBild
So viel geschwafel für die einfache Frage ob der Shogun auch den Ton der Cam aufzeichnet? ;-)

Antwort: Ja tut er!



Antwort von Skeptiker:

Antwort: Ja tut er!
Auch per HDMIHDMI im Glossar erklärt, wenn der Ton so angeliefert wird/würde?



Antwort von klusterdegenerierung:

So erster Akkutest!

Der mitgelieferte Atomos 2600mAh lief bis zur blinkenden Akkuanzeige exat eine Stunde! Wobei ich dazu sagen muß das er nicht recorded hat, sondern nur das Livebild mit halbhellem Display gezeigt hat.

Was darauf hindeutet das man ihn über Tag in der Sonne mit hoher Helligkeit und in Aufnahme kaum länger als eine halbe Stunde nutzen kann!

Da würde mich mal wirklich interessieren wie Atomos da an 3 Stunden kommt.
Vielleicht Raumfahrt Akkus mit Atomzellen? ;-)



Antwort von klusterdegenerierung:

Antwort: Ja tut er!
Auch per HDMIHDMI im Glossar erklärt, wenn der Ton so angeliefert wird/würde?

Ja von der Fragestellung bin ich ausgegangen!
Ich hatte nur ein HDMIHDMI im Glossar erklärt Kabel am Shogun und GH4 und man sieht dann den Ausschlag im Audiometer, hat man im Atomos Video aber auch schon gesehen. Links das interne Mic und rechts sein Rhode.



Antwort von TonBild:

ob der Shogun auch den Ton der Cam aufzeichnet? ;-)

Antwort: Ja tut er!

Danke, das ist gut zu wissen. Wir ja auch hier ab ca. 30:00



bei einem anderen Gerät gut erklärt.

Bis auf den Les Misérables Film http://www.soundonsound.com/sos/apr13/a ... t-0413.htm wird bei Musikvideos meist ein separat produzierter Ton verwendet. Aber wenn zumindest der Ton vom Kameramikrofon das HDMIHDMI im Glossar erklärt Kabel vom Shogun aufgenommen wird ist das für die Nachbearbeitung sehr hilfreich.

Dann habe ich noch eine Frage zu 8/10bit: Wenn der Kamerasensor nur ein 8bit Signal ausgibt, dann bringt es doch nur eine größere Datei - aber keinen Qualitätsgewinn - wenn der Shogun 10 bit aufzeichnet?



Bei 26:35 wird der Unterschied mit 10/8bit 4:2:24:2:2 im Glossar erklärt bzw. 4:2:04:2:0 im Glossar erklärt gezeigt. Wird somit 4:2:24:2:2 im Glossar erklärt besonders für einen gleichmäßigen Helligkeitsverlauf ohne Banding von den TV-Sendern gefordert oder hat das noch andere Gründe?



Antwort von klusterdegenerierung:

Aber wenn zumindest der Ton vom Kameramikrofon das HDMIHDMI im Glossar erklärt Kabel vom Shogun aufgenommen wird ist das für die Nachbearbeitung sehr hilfreich.

Dann habe ich noch eine Frage zu 8/10bit: Wenn der Kamerasensor nur ein 8bit Signal ausgibt, dann bringt es doch nur eine größere Datei - aber keinen Qualitätsgewinn - wenn der Shogun 10 bit aufzeichnet?

Was andere Cams so machen weiß ich nicht, aber Grundsätzlich hat HDMIHDMI im Glossar erklärt auch immer einen Signalweg für Audio.

Die Frage ist von welcher Cam Du sprichst, da die GH4 ja echte 10bit ausgibt ist das dort natürlich unproblematisch, jedoch bei Cams die nur 8bit ausgeben ist es natürlich uninteressant.



Antwort von rabe131:

... bei der GH4: wozu soll dann das SDISDI im Glossar erklärt InterfaceInterface im Glossar erklärt noch gut sein,
wenn ich mit dem Shogun, neben allem anderen, ein SDISDI im Glossar erklärt u. HDMIHDMI im Glossar erklärt Loop through habe?



Antwort von srone:

... bei der GH4: wozu soll dann das SDISDI im Glossar erklärt InterfaceInterface im Glossar erklärt noch gut sein,
wenn ich mit dem Shogun, neben allem anderen, ein SDISDI im Glossar erklärt u. HDMIHDMI im Glossar erklärt Loop through habe?

manchmal sind es die kleinen dinge, wie zb 12v eingang, audio, hd-sdi - das stabilere signal, die zählen. aber das mag jeder in seinem produktions-umfeld für sich entscheiden dürfen. ;-)

lg

srone



Antwort von VideoUndFotoFan:

Stefan Czech zeigt ja in seinem Video, daß die GH4 auch UHD/24p/10bit/4:2:2 aus ihrem HDMIHDMI im Glossar erklärt heraus liefert (sie selbst wohlgemerkt, und nicht aus dem Ziegelstein, den Panasonic ja zusätzlich für die GH4 anbietet (ich jedenfalls habe die GH4 auf dem Video nackt und ohne Ziegelstein gesehen!)).

Weiß jemand sicher und zuverlässig, welche Firmware dafür in der GH4 notwendig ist?
Die aktuelle, oder die gerüchteweise von irgendwem angekündigte spezielle für den Shogun? Also die, von der niemand weiß, ob Panasonic sie jemals als Update für die GH4 liefern wird?



Antwort von klusterdegenerierung:

Also jetzt ist auch mal Zeit zum meckern!

Was mir ziemlich negativ auffällt und hoffentlich nicht so bleibt, ist die obere Bildrandsteuerung zum einstellen des Codecs etc.!

Das ist wirklich pisselkram und nix für Erwachsene, sondern nur für Chinesische kleine Kinderfinger!! :-(((

Bis ich es geschaft habe in das obere Menü zu kommen, hat es sich ca. 15x eingeklappt und min genauso oft garkeine response gezeigt.
Zwischenzeitlich dachte ich schon das er kaputt ist!!

wer bitteschön trifft schon ein 2mm Icon mit einem min ein quadrat cm Fingerkuppe richtig??

Was mir auch etwas unbehagen bereitet ist das wenn ich die Cam mal auf Slomo einstelle, das obere Menü sich garnicht mehr entern lässt!

Was mir auch Sorge bereitet ist das der Powerbutton bei mir zu einer Seite viel mehr nach innen gedrückt wird als auf der anderen Seite.
Wenn ich bedenke das ich ihn fürs ausschalten länger reindrücken muß, habe ich jetzt schon Angst das er mir dann irgendwann zur Seite abschmiert! :-((

Find ich jetzt nicht so prickelig, Atomos!



Antwort von StefanFilm:

Hallo, ich habe gerde meine Arbeit beendet und den von vielen gewünschten 4k UHD clip online gestellt.

NEWS: Atomos Shogun feets Sony A7S..best of in 4k UHD: http://youtu.be/menAX79_Q7c

Nach dem sehr großen Erfolg in den ersten 24 Stunden, sage ich einfach einmal Danke.
Wie ich gesehen habe wird der Link hier im Forum fleisig geteilt.

Ich werde mich hüten, mich in diese Diskusionen einzumischen.
Aber vielleicht sollten die ein oder anderen "Teilnehmern" dieses Forums einmal mehr ihre Posts durchlesen bevor sie sie abschicken.

Ein letzte Sache möchte ich noch beantworten: Ja man kann eine Musik Video auch ohne Mikrofon drehen. Muß man aber nicht.
Was der ein oder andere in ein Making of Video gesehen hat, und was am ende auf meinem Schnittplatz landet, ist vielleicht nicht immer für den aussen stehenden zu erkennen.
Und ja, alle Atomos Geräte nehmen Ton auf, wenn er von der Kamera kommt. Die Canon 5D MarkIII z.B. gibt keinen Ton aus. Die Sony A7S, GH4, C100 aber schon.

Mit freundlichen Grüßen
Stefan Czech



Antwort von TonBild:


Und ja, alle Atomos Geräte nehmen Ton auf, wenn er von der Kamera kommt. Die Canon 5D MarkIII z.B. gibt keinen Ton aus. Die Sony A7S, GH4, C100 aber schon.

Mit freundlichen Grüßen
Stefan Czech

Danke für die Info und schönes Weihnachtsfest!



Antwort von klusterdegenerierung:

Ich werde mich hüten, mich in diese Diskusionen einzumischen.
Aber vielleicht sollten die ein oder anderen "Teilnehmern" dieses Forums einmal mehr ihre Posts durchlesen bevor sie sie abschicken.

Ist ja schön das Du Dir so viel Mühe gibst und sicher auch allen damit helfen willst, aber jetzt hier nach 2 Tagen Slashcam allen Thread beteildigten ein schlechtes gewissen zu machen, was man wohl blödes oder gemeines gesagtem habem soll, finde ich ehrlich gesagt schon sehr überheblich und anmassend!

Weiß nicht warum Du so ein Fass auf machst? Was soll denn wer jetzt wo bereuenswertes gesagt haben? Sollen wir uns jetzt alle den Kopf zerbrechen?

Dieser Thread ist doch wohl noch einer der wenigen human ablaufenden Threads wo sich nicht jeder Gegenseitig fertig macht.

Für mich kommt das jetzt ganz schön Schulmeisterisch rüber und das mag ich vielleicht das ein oder andere mal verdient haben, aber die meißten hier nicht.

Vielleicht wäre es gut gewesen, wenn Du Dir den Satz vorm schreiben auch noch mal durchgelesen hättest!?



Antwort von wolfgang:

Stefan Czech zeigt ja in seinem Video, daß die GH4 auch UHD/24p/10bit/4:2:2 aus ihrem HDMIHDMI im Glossar erklärt heraus liefert

Also ich vermute ein WoWu würde uns möglicherweise auch wieder sagen, dass dieser Test auch nicht aussagekräftig genug war.

Ich glaube das zwar nicht, aber mal negativ denkend könnte es ja auch so sein, dass über die Schnittstelle nur 8bit angeliefert wird, und das Material dann mit zu 10bit vom Rekorder mit Nullen aufgefüllt wird. Und dann zeigt Czech halt das Verhalten in der NLE - dass da aufgefülltes 10bit Material in einer 10bit Berechnung auch durch Zwischenwertbildung ein besseres Bild zeigen könnte ist auch nicht ganz unmöglich.

Nochmals: ich glaube sehr wohl dass hier auch bei UHD 10bit 422 übertragen wird. Denn immerhin spezifiziert auch Panasonic bei der GH4 dass die 10bit 4:2:24:2:2 im Glossar erklärt ausgeben kann (und die hat ja nur HDMIHDMI im Glossar erklärt als Ausgang), auch wenn man in keinen Datenblatt genau die Info findet ob dies für HD oder auch UHD/4K gilt. Aber das wird offenbar akzeptiert dass das geht. Convergent Design hats bestätigt. Atomos - tja da hat man die Datenblätter wo das drinnen steht - auch ohne Unterscheidung bezüglich HD und UHD/4K.

(sie selbst wohlgemerkt, und nicht aus dem Ziegelstein, den Panasonic ja zusätzlich für die GH4 anbietet (ich jedenfalls habe die GH4 auf dem Video nackt und ohne Ziegelstein gesehen!)).

Der Ziegel wird nur über HDMIHDMI im Glossar erklärt an die GH4 angedockt, wenn ich das richtig verstanden habe. Insofern KANN der Ziegel nicht mehr können als die GH4 selbst. Aber es hat schon Fachauthoren gegeben, die auch meinten dass nur der Ziegel 10bit 422 ausgeben könnte...

Weiß jemand sicher und zuverlässig, welche Firmware dafür in der GH4 notwendig ist?
Die aktuelle, oder die gerüchteweise von irgendwem angekündigte spezielle für den Shogun? Also die, von der niemand weiß, ob Panasonic sie jemals als Update für die GH4 liefern wird?

Die GH4 arbeitet heute schon in 24p zufriedenstellend mit den Atomos Geräten zusammen. Nur bei 25p oder 30p gibts die Probleme. Das Update hatte Pansonic offiziell für Dezember angekündigt, seit 18.12. gibt es die offizielle Informtion dass das Update für die GH4 erst im Jänner kommen wird.

http://av.jpn.support.panasonic.com/sup ... _yagh.html

Information of firmware update service for DMC-GH4/DMW-YAGH


Dec. 18, 2014

Panasonic postponed the release of firmware update programs for the LUMIX Digital Single Lens Mirrorless (DSLM) camera DMC-GH4 and the InterfaceInterface im Glossar erklärt Unit DMW-YAGH which were originally scheduled to be released in December of 2014 due to the need of further verification.

With the firmware for DMC-GH4, time code and recording control signal can be embedded to the HDMIHDMI im Glossar erklärt output signal*. Now both FHD at 30p/25p native or at 60p/50p is selectable to output via HDMIHDMI im Glossar erklärt while recording video in FHD at 30p/25p.
The InterfaceInterface im Glossar erklärt Unit DMW-YAGH will also be updated with the new firmware to support these functional upgrades of DMC-GH4. Plus, over 60i/50i (30PsF/25PsF) or 60p/50p is selectable for the output via SDI.

The new firmware programs are going to be released in January of 2015.

* These functions are available when DMC-GH4 or DMW-YAGH are connected with the products of ATOMOS Global Pty. Ltd. or the products complying with the extended specifications of ATOMOS Global Pty. Ltd..

Bleibt übrigens zu hoffen dass die Ausgabe zu 25p/30p nicht nur für HD, sondern auch für UHD funktionieren wird! Und leider keine Rede von v-log, was wohl erst später kommen wird.



Antwort von Kranich:

Schafft es keiner mal n kleinen Clip gh4+Shogun hochzuladen?

Mal ne andere Frage, wegen dem Akku.
Wenn man mal ein längeren 12-15 Stunden Dreh am arsch der Welt hat.
Muss man sich dann 12 Akkus mitschleppen?
Oder wie lang halten die Dinger wirklich.
Das schreckt mich erlich gesagt bisschen ab!
Ich finde es super, wie lang der Akku von der gh4 hält.



Antwort von mash_gh4:

ich finde das video von stefan czech auch recht spannend.

selbst wenn er es nicht für nötig hält, sich in die niederungen der offenen diskussion herabzulassen, muss man ihm wenigstens zu gute halten, dass er kritische kommentare in den foren offenbar gründlich studiert haben dürfte, um ein derart wunderbar glattes und pomotion-konformes resultat zu erzielen. der angehängte screenshot dürfte das wunderbar belegen. ich hab's mir nicht verkneifen können, oben links eine kleinigkeit hervorzuheben, weil mir 4 frames lag selbst noch via SDISDI im Glossar erklärt (sic.) tatsächlich bemerkenswert erscheinen. ;)

und bei dieser eindrucksvollen quantifizierungsdemonstration, finde ich es auch ziemlich schade, wenn im begleitenden kommentar ständig nur irgendwas von 4:2:24:2:2 im Glossar erklärt vs. 4:2:04:2:0 im Glossar erklärt erzählt wird -- und manche zuseher tatsächlich darauf reinfallen dürften, wenn ich den kommentaren in anderen foren glauben schenken darf --, während das gezeigte denkbar wenig ursächlich damit zu tun haben dürfte . dafür bleibt die ganze problematik der kompressionsartifakte ausgeklammert. es wird also nichteinmal angegeben, welche diesbezüglichen einstellungen verwendet wurden, obwohl doch genau das die demonstrierten effekte wunderbar erklären würde bzw. die tatsächlich relevanten qualitäten des produkts viel besser herausstreichen könnte.

das sind halt so kleinigkeiten, die ich ein bisserl enttäuschend an diesem video finde. dafür ist es natürlich wieder ein ganz wunderbares beispiel, um zu unterstreichen, warum ich bereits eingangs diesem ersten produktpräsentatiosvideo mein ein lob ausgesprochen habe. mir sind nämlich tatsächlich jene händler bzw. testberichte lieber, die mich verhältnismäßig ehrlich mit der nötigen kritischen hintergrundinformation versorgen, nicht aber jene, die ihre waren über die maßen glänzend aussehen lassen wollen.



Antwort von klusterdegenerierung:

Schafft es keiner mal n kleinen Clip gh4+Shogun hochzuladen?

Mal ne andere Frage, wegen dem Akku.
Wenn man mal ein längeren 12-15 Stunden Dreh am arsch der Welt hat.
Muss man sich dann 12 Akkus mitschleppen?
Oder wie lang halten die Dinger wirklich.
Das schreckt mich erlich gesagt bisschen ab!
Ich finde es super, wie lang der Akku von der gh4 hält.

Ich hatte ja weiter oben einen kleinen Bericht abgegeben, wahrscheinlich ist der in der ganzen Flut hier etwas unter gegangen.

Also 1x Std. mit original 2600er Atomos Akku im Standby Livebild Modus!
Den Rest kann man sich ja ausmalen.



Antwort von klusterdegenerierung:

@Mash_GH4

Korrigiere mich wenn ich Dich falsch verstanden haben soll, aber Stefan Czechs 10bit/422 Test ist ja durch aus richtig und auf die 422 wird deshalb so viel rumgeritten, da dies 100% aller Betrachter sehen können dürften!

Den 10bit vs 8bit Test können wohl die wenigsten sehen, da wohl die meisten vergessen das sie keinen reinen 10bit Monitor besitzen.

Hättest Du einen, hättest Du doch einen Prima vergleich zwischen Subsampling und Kontrastumfang.

Wie WoWu mir berichtet hat ist mein Dell ein Fake 10bit und leider Gehöre ich auch zu denen die den 10bit Unterschied visuell garnicht ausmachen können, schlimmer noch, ich habe einen Shogun und kann den Unterschied nicht sehen.

Das aber ein Unterschied innerhalb eines Spektrums von 256 Tönen zu 1024 Tönen da sein muß, dürfte doch wohl klar sein.

Wie gesagt sorry wenn ich Dich da jetzt falsch interpretiere.
Eine andere Geschichte die ich hier auch nicht verstehe ist, warum andauert in Frage gestellt wird ob die GH4 wohl wirklich 10bit ausgibt?



Antwort von motiongroup:

nein Wolfgang, der Dr meinte das diese Funktion generell nicht via hdmi 1.4b übertragen werden kann da diese nicht in der Tabelle auf hdmi.org auftauchen..

die Webseite ist da etwas spartanisch und wenn man genauer sucht wird man auch fündig... in den specs werden unter 1.4 bei 4k30 YUVYUV im Glossar erklärt 4:2:24:2:2 im Glossar erklärt 10bit ausgewiesen. auch auf der BM Webseite stehen in den specs diese Werte aufgeführt .
https://www.blackmagicdesign.com/produc ... techspecs/

und sicher werden sich manche die Frage stellen ob der Videovergleich ein ähnliches Verhalten darstellt wie eben auch die verarbeitungsmöglichkeit von Edius bei der Umschaltung von 8zu10 Bit... Edius zeigt in eben diesem speziellen Fall selbiges Verhalten.. Selbst wenn die Gh4 nur 4:2:24:2:2 im Glossar erklärt 8bit ausgeben würde, wäre das schon eine Verbesserung für die Nachbearbeitung und in Full HD steht es so oder so zu Verfügung..



Antwort von wolfgang:


die Webseite ist da etwas spartanisch und wenn man genauer sucht wird man auch fündig... in den specs werden unter 1.4 bei 4k30 YUVYUV im Glossar erklärt 4:2:24:2:2 im Glossar erklärt 10bit ausgewiesen. auch auf der BM Webseite stehen in den specs diese Werte aufgeführt .
https://www.blackmagicdesign.com/produc ... techspecs/

Wo genau hast du das gefunden? Hast du mal einen Link?

Edit: den BM-Link hast offenbar gerade noch eingefügt. Stimmt, dort steht auch HDMIHDMI im Glossar erklärt 1.4b mit 10bit YUVYUV im Glossar erklärt in 4K. Leider keine Aussage zu 4:2:24:2:2 im Glossar erklärt 10bit (das steht nur bei SDI).

Auf der hdmi-Seite ist die 1.4b Spec ja leider nur für Mitglieder beziehbar.



Antwort von mash_gh4:

@Mash_GH4
Korrigiere mich wenn ich Dich falsch verstanden haben soll, aber Stefan Czechs 10bit/422 Test ist ja durch aus richtig und auf die 422 wird deshalb so viel rumgeritten, da dies 100% aller Betrachter sehen können dürften!

ich fürchte, du bringst genau jene irritation zum ausdruck, die durch dieses video provoziert wird.

es wird an diesem beipiel nämlich keineswegs der unterschied verschiedener farbabtastungs-varianten demonstriert. dazu müsste man sich nämlich exakte farbkonturen, freistellaufgaben, interferenzmuster od. ähnliches in hoher auflösung ansehen. im gegenständlichen fall wurde ausschließlich die Y-kurve (=luma/helligkeit) modifiziert, um wie mit einer lupe, grauwerte bzw. die anzahl entsprechender abstufungen in einem winzigen abschnitt des möglichen gradationsverlaufs stark verstärkt herauszuheben. es geht also wirklich nur um jene "4", die bei 4:2:24:2:2 im Glossar erklärt in genau gleicher weise wie bei 4:2:04:2:0 im Glossar erklärt wirksam ist.

wenn ich es richtig verstehe (und natürlich sind da auch immer gewisse zweifel angebracht ;)), tut die angabe der unterabtatsung in allen drei fällen überhaupt nichts zur sache. man kann in einem solchen beispiel eigentlich nur den unterschied zwischen 8 und 10bit bzw. dessen relevanz für die weitere bearbeitung anschaulich herausheben.

aber, so wie auch du -- das interpretiere ich jetzt einmal hinein -- den unterschied zwischen den beiden linken dritteln als nicht gar zu umwerfend erlebt hast, obwohl genau dort der unterschied zwischen 8 und 10bit deutlich erkennbar hervortreten sollte (im idelallfall sieht man im 10bit bild viermal mehr grauabstufungen), geht es beim unterschied zwischen den beiden rechten um ein völlig anders gelagertes problem.

diese beiden rechten bilder sollten eigentlich gleich aussehen bzw. gleich viele grauabstufungen zeigen, weil ihnen ja beiden 8bit ausgangsdaten zu grunde liegen. dass es im ganze rechten intern aufgenommen bsp. aber um so viel unbefriedigender wirkt, hat einfach damit zu tun, dass hier nebeneffekte der kompression, so deutlich zu tage treten. sehr viele bild-/videokompressionen beruhen ja gerade auf der tatsache, dass geringfügige änderungen der helligkeit normalerweise gar nicht erst wahrgenommen werden, und daher in effizienter weise ausgeklammert und vereinfacht werden könne, ohne dass das ergebnis für uns völlig unansehnlich wirken würde.

es ist aber bei gott nicht so, dass man diese abbildungsgrenzen des internen h264 codecs nicht kritisch mit prores basierenden aufzeichnungen von ganz anderer größe vergleichen sollte! das macht durchaus sinn. aber man muss die dinge dann wenigstens ganz klar beim namen nennen und ihren tatsächlichen technischen hintergrund einbeziehen. wenn man das konsequent macht, erkennt man schnell, dass es leider auch noch weitere vergleichbare einschänkungen gibt, die sich auch unter verwendung externer prores aufzeichnung nicht so einfach aus der welt zaubern lassen (bspw. die ungünstige verteilung der grauabstufungen über den vollen dynamikbereich ohne log-profile od. raw etc.)

Den 10bit vs 8bit Test können wohl die wenigsten sehen, da wohl die meisten vergessen das sie keinen reinen 10bit Monitor besitzen.

wie gesagt: im gegenständlichen beispiel sollte der entsprechende unterschied für jeden erkenn- od. zumindest erahnbar sein -- offen bleibt schließlich, wie relevant eine derartig massiver eingriff für die praxis ist?

ich persönlich würde glauben, dass nur echte belichtungskorrekturen, wie sie fast ausschließlich unter rückgriff auf raw-daten od. zumindest log-material sinnvoll und in begrenztem rahmen möglich sind, tatsächlich als gewinn angesehen werden können, während ein unbeholfene herumpfuschen mit viel zu flachen primitiven bildprofilen fast immer mehr schaden als gewinn für die bilder mit sich bringt.

es ist jedenfalls sicher nicht so, dass mir diese eindrucksvolle demonstration nicht zu denken gegeben hätte. ich bin mir trotzdem nicht sicher, ob man das aufgezeigte problem wirklich für bare münze nehmen soll? man kann in dieser weise einfach immer -- quasi im frontalkurs -- irgendwelche störenden effekte isolieren und herausheben, oder eben einen weg finden, wie man mit gegebenen werzeugen zumindest noch ein erträgliches maximum an qualität herauszuholen vermag.

im falle der hier gegeneinander ausgespielten kompressionsvarianten stellt sich auch noch das problem, dass prores, wie die meisten gängigen intermediate formate, eigentlich auch schon wieder als schnee von gestern angesehen werden könnte und HEVC basierende interne aquisitions-codecs langsam das feld stürmen.



Antwort von motiongroup:

ich schau Morgen nochmals im Dienst in den Verlauf und Link es dir..



Antwort von klusterdegenerierung:

Schafft es keiner mal n kleinen Clip gh4+Shogun hochzuladen?

Doch, schaff ich! ;-)

Ich muß dazu sagen das ich hier bei mir im Industriegebiet nichts gefunden habe was sich großartig bewegt, außer die Folie im Container nebenan.

Ob Dir der Clip jetzt was bringt, weiß ich nicht, jedoch habe ich ein Motiv mit viel Spitzlichtern und einer Schattenkannte gewählt.
Die Datei ist eine ProResProRes im Glossar erklärt HQ in 4K.
Die Cam bei 30fps auf 200Iso bei BlendeBlende im Glossar erklärt 4 mit 35mm Cinelens an Speedbooster.

Kannst ja mal was dazu schreiben :-)
Viel Spass damit.

http://www.filedropper.com/shogun



Antwort von VideoUndFotoFan:

Hab's mal heruntergeladen.
Die ZIP ist 318 MB groß und enthält eine MOV mit einem UHD/30p-Stream mit 613 Mbit/sMbit/s im Glossar erklärt und 4 PCM-Audio-Kanälen.

Der MPC-HC-Player spielt's problemlos ab.

Ist der Clip UHD/10bit/4:2:2 ???



Antwort von mash_gh4:


Doch, schaff ich! ;-)

ich hab's zwar leider noch nichteinmal geschafft dieses datei fehlerfrei herunterzuladen, trotzdem hätte ich eine daran anschließende bitte:

wäre es dir vielleicht bei gelegenheit möglich auch noch eine kurze aufnahme im 8-bit modus gleichzeitig intern und extern aufzunehmen?

aus der differenz der beiden files könnte man nämlich sehr viel über die tatsächliche relevanz der kompressionseinflüsse in erfahrung bringen.



Antwort von klusterdegenerierung:

Hab's mal heruntergeladen.
Die ZIP ist 318 MB groß und enthält eine MOV mit einem UHD/30p-Stream mit 613 Mbit/sMbit/s im Glossar erklärt und 4 PCM-Audio-Kanälen.

Der MPC-HC-Player spielt's problemlos ab.

Ist der Clip UHD/10bit/4:2:2 ???

Natürlich :-)



Antwort von klusterdegenerierung:


Doch, schaff ich! ;-)

ich hab's zwar leider noch nichteinmal geschafft dieses datei fehlerfrei herunterzuladen, trotzdem hätte ich eine daran anschließende bitte:

wäre es dir vielleicht bei gelegenheit möglich auch noch eine kurze aufnahme im 8-bit modus gleichzeitig intern und extern aufzunehmen?

aus der differenz der beiden files könnte man nämlich sehr viel über die tatsächliche relevanz der kompressionseinflüsse in erfahrung bringen.

Wenn das schon ginge wäre ich happy! Leider wird das wohl erst mit dem im Januar angekündigten GH4 update funktionieren.



Antwort von mash_gh4:

Wenn das schon ginge wäre ich happy! Leider wird das wohl erst mit dem im Januar angekündigten GH4 update funktionieren.

wegen dem gemeinsam starten? oder gibt's da noch ein weiteres problem, das mir nicht bewusst ist?

um ersteres würde ich mir nämlich keine großen sorgen machen, so lange es irgendeine erkennbare visuelle veränderung zum synchronisieren gibt. es können ruhig auch beide geräte von hand gestartet/gestoppt werden.

ich bin mir sicher, nach dem jänner-update werden's das zusammenspiel so weit perfektioniert haben, dass auch der shogun nach 30min die aufnahme automatisch beendet. :) (o.k. -- war ein schlechter scherz ;))



Antwort von Stephan_Kexel:


http://vimeo.com/stefanfilm/atomos-shogun

Großartiger Review, Stefan.

Ich habe leider meinen Shogun noch nicht. Aber genau über das Banding hätte ich auch den Nachweis geführt, was der Unterschied zwischen 10bit 4:2:24:2:2 im Glossar erklärt, 8bit 4:2:24:2:2 im Glossar erklärt und 8bit 4:2:04:2:0 im Glossar erklärt ist. Und den sieht man hier einmal wirklich.

@ Stephan Kexel,
du arbeitest ja im Moment für Atomos, und ich finde es in eurer Kommunikation extrem unglücklich dass ihr es nicht schafft, euch klar auf die Hinterbeine zu stellen und mal zu sagen: "Jawohl Leute, es ist technisch möglich über HDMIHDMI im Glossar erklärt 1.4b eben auch UHD/4K mit 10 bit 4:2:24:2:2 im Glossar erklärt zu übertragen. Unser Shogun verwendet dieses Feature, und wir stehen dazu." Das hat zumindest Convergent Design so gemacht.

Der Umstand, dass ihr das nicht macht, ist für viele potentiellen Käufer ein Grund für Unsicherheit und Verwirrung - und wohl dann auch für einige der Grund dann eben nicht zu kaufen.

Wir kennen uns lange und auch kurz persönlich - und du weißt genau dass ich ein großer Fan und Beführworter von euren Produken bin. Und auch selbst gekauft habe. Aber ich fühle mich auch den Usern gegenüber verantwortlich, die in unseren Foren Ratschläge erwarten - und das zu Recht. Es ist daher keine Stimmungsmache gegen das tolle Produkt. Sondern die sehr verständliche Frage von euren Kunden was hier eigentlich technisch wirklich Sache ist. Und sowas unbeantwortet zu lassen finde ich als schwierig.

Hallo Wolfgang,

das hatte ich eigentlich hier schon gemacht: https://www.slashcam.de/forum/viewtopic.php?p=761777#761777

Viele Grüße

Stephan



Antwort von Stephan_Kexel:



Stefan, ich habe einen Spyder 4 Pro, kann ich diesen, vielleicht mit einem Zubehöradapter, auch nutzen oder müßte ich mir einen Atomos Spyder kaufen?

Ja man kann den Spyder 4 von DataColor auch nehmen. die Hardware ist die gleiche.

Man benötigt dann noch unsere Software, die bekommt man kostenlos hier: http://www.atomos.com/support/

Und das USB zu LANCLANC im Glossar erklärt Kabel. Das bekommt man bei unseren Fachhändlern: http://www.atomos.com/where-to-buy/#Germany z.b. hier http://www.teltec.de/Steuerkabel/Atomos ... ram=ATOMOS

Viele Grüße

Stephan



Antwort von klusterdegenerierung:



Stefan, ich habe einen Spyder 4 Pro, kann ich diesen, vielleicht mit einem Zubehöradapter, auch nutzen oder müßte ich mir einen Atomos Spyder kaufen?

Ja man kann den Spyder 4 von DataColor auch nehmen. die Hardware ist die gleiche.

Man benötigt dann noch unsere Software, die bekommt man kostenlos hier: http://www.atomos.com/support/

Und das USB zu LANCLANC im Glossar erklärt Kabel. Das bekommt man bei unseren Fachhändlern: http://www.atomos.com/where-to-buy/#Germany z.b. hier http://www.teltec.de/Steuerkabel/Atomos ... ram=ATOMOS

Viele Grüße

Stephan

Danke Stefan, was mache ich denn mit der Mac Software, ich dachte jetzt das läuft alles über den Shogun?

Dann hab ich da noch eine Frage wegen des Lanc Anschlusses, was kann man daran anschliessen und welcher Standart ist das?
Ich habe mal meinen Bebob angeschloßen, aber ohne response. Kommt das erst mit dem update?

Ein bisschen schade ist natürlich das darüber überhaupt nichts in den Dokumentationen erwähnt wird. Hätte man nicht wenigsten schreiben können ob Pana oder Sony Standart oder welche 5 Hersteller man verwenden kann, oder erwarte ich da schon zu viel?

Gruß und Danke :-)



Antwort von wolfgang:

Hallo Stephan,

ja das habe ich so verstanden dass der von Atomos entwickelte Chip sogar bis zu 12bit kann. Danke dass du das nochmals bestätigst - auch hier. Ich glaube, die ganze Diskussion entspringt dem eher unglücklichem Umstand, dass die exakte Spezifikation von HDMIHDMI im Glossar erklärt 1.4b der Öffentlichkeit nicht zugängig ist (sondern eben nur der Industrie die Geräte baut). Nirgendst im Netz findet sich daher Klarheit darüber, dass HDMIHDMI im Glossar erklärt 1.4b tatsächlich auch bei UHD/4K bis zu 30p die 10bit 4:2:24:2:2 im Glossar erklärt problemlos übertragen kann - und viele vermuten daher dass dies erst mit HDMI2.0 gehen würde. Und das verunsichert viele Anwender.

Ich meine, wenn ihr bestätigt dass der im Shogun verbaute Chip bis zu 12 bit kann, dann werden es wohl auch die Schnittstellen können - also sowohl HDMIHDMI im Glossar erklärt wie natürlich auch SDISDI im Glossar erklärt im Shogun. Und auch die GH4 hätte Panasonic nie mit 10bit 4:2:24:2:2 im Glossar erklärt spezifizieren können - die hat ja nur einen micro-HDMI Ausgang (und da ist nicht genau spezifiziert ob 2.0 oder 1.4b verbaut ist, soweit ich weiß). Und damit sollte wohl die Sache klar sein, auch im Zusammenspiel mit dem Videotests von Czech.

Ich für meinen Teil freue mich, endlich den Shogun in die Finger zu bekommen. Und gut dass man auch einen bestehenden Spyder nutzen kann. :)



Antwort von klusterdegenerierung:

Ich für meinen Teil freue mich, endlich den Shogun in die Finger zu bekommen.

Dann besorge Dir schon mal Gumminoppen Handschuhe zum wechseln der SSD Caddies!!!

Popeliger gehts echt nicht!



Antwort von wolfgang:

Gestern ist das Teil gekommen. Die SSDs sind verzögert, also wurde es eine normale Platte - vorerst. Aber fummelig? Eher so wie eh und je!



Antwort von klusterdegenerierung:


Doch, schaff ich! ;-)
wäre es dir vielleicht bei gelegenheit möglich auch noch eine kurze aufnahme im 8-bit modus gleichzeitig intern und extern aufzunehmen?

Habe es gerade mal ausprobiert, es geht leider nicht. Steht der HDMIHDMI im Glossar erklärt auf 10bit, kann ich momentan garnicht gleichzeitig aufnehmen!

Vielleicht nach dem Firmwareupdate?



Antwort von wolfgang:

Wieso? Wenn die GH4 auf 8bit 422 am HDMIHDMI im Glossar erklärt Ausgang steht, sollte doch die interne Aufnahme klappen??



Antwort von klusterdegenerierung:

Wieso? Wenn die GH4 auf 8bit 422 am HDMIHDMI im Glossar erklärt Ausgang steht, sollte doch die interne Aufnahme klappen??

Klar, das schon, aber wer will denn eine 8bit 420 mit einer 8bit 420 Aufnahme vergleichen? Ist doch Blödsinn oder ;-)

Wie läuft es denn? Kannst Du uns schon ein paar exclusive Weihnachtsbilder in 10bit präsentieren? :-)



Antwort von iasi:

eine kleine Sensoreinheit mit einem Kabel am Shogun wäre lecker



Antwort von mash_gh4:

wäre es dir vielleicht bei gelegenheit möglich auch noch eine kurze aufnahme im 8-bit modus gleichzeitig intern und extern aufzunehmen?
Habe es gerade mal ausprobiert, es geht leider nicht. Steht der HDMIHDMI im Glossar erklärt auf 10bit, kann ich momentan garnicht gleichzeitig aufnehmen!

ja -- mit 10bit geht es sicher nicht. ich würde trotzdem den direkten vergleich von interner und externer 8bit aufnahme für recht spannend finden. keineswegs deshalb, weil ich an der qualität der prores files aus dem shogun zweifeln möchte, sondern vielmehr, um darin eigenheiten der GH4 videokompression besser erfassen zu können. immerhin gibt es nun die möglichkeit, die entsprechende blackbox endlich von zwei seiten her zu betrachten. ich glaube nämlich, dass die interne aufnahmemöglichkeit weiterhin ihren wert hat. es ist aber sicher sehr nützlich, wenn man die betreffenden grenzen und probleme sehr genau kennt. aber ich verstehe natürlich nur zu gut, dass du für deine aufnahmen die vollen verfügbaren 10bit nutzen wirst.

Vielleicht nach dem Firmwareupdate?

da bin ich eher skeptisch. ich kann mir kaum vorstellen, dass wir so etwas für diese kamera sehe werden. würde nichts gröberes dagegen sprechen, wäre ja sicher auch eine interne 10bit aufnahmemöglichkeit vorhanden.



Antwort von Angry_C:

Der Lanc Anschluss dürfte gleich sein wie der vom Samurai. Er funktioniert nur im Loop Mode, d.H. man muss an eine Camera durchschleifen, die Lanc versteht. Zum normalen Lanc Protokoll gibt es aber noch ein eigenes serielles Atomos Protokoll über Rs485, welches ohne Kamera verstanden wird. Das serielle Protokoll bekommt man nach Anmeldung von Atomos. Ich hab die Dokumentation auf der Arbeit liegen, weil ich für einen Kunden einen Start/Stop Knopf für den Samurai Blade realisieren musste.



Antwort von ruessel:

eine kleine Sensoreinheit mit einem Kabel am Shogun wäre lecker
Gibt es doch schon fertig von BMD.



Antwort von Angry_C:

eine kleine Sensoreinheit mit einem Kabel am Shogun wäre lecker
Gibt es doch schon fertig von BMD.

Funktioniert aber nicht ohne eine Lanc kompatible Kamera.



Antwort von wolfgang:

Wie läuft es denn? Kannst Du uns schon ein paar exclusive Weihnachtsbilder in 10bit präsentieren? :-)

Wohl kaum. Mehr als das Gerät aufbauen, einschalten, einige erste Tests machen war zeitlich bei mir noch nicht möglich.

Aber ich kann zumindest bestätigen, dass die Ausgabe aus der GH4, gestellt auf 10bit 4:2:24:2:2 im Glossar erklärt, via hdmi vom Shogun tadellos verstanden wird (im Moment definitiv mit 24,000p wie auch 23,976p, für den Rest braucht es das Firmware-Update wie wir wissen).

DIch hab die Dokumentation auf der Arbeit liegen, weil ich für einen Kunden einen Start/Stop Knopf für den Samurai Blade realisieren musste.

Sowas wäre ein interessantes Produkt - wobei ja demnächst etwa bei der GH4 Start/Stop auch von der Kamera aus ausgelöst werden wird können - und damit hoffentlich auch von Fernauslösern die man an der GH4 hängen hat.

Ich glaube auch das es nicht immer ProResProRes im Glossar erklärt 10bit 4:2:24:2:2 im Glossar erklärt sein muss - selbst wenn man die Möglichkeiten hat. Die Aufnahmeeinheit wird in Summe halt schon deutlich sperriger und schwerer. Es wird sehr wohl Situationen geben, wo man über die interne UHD/4K Aufnahmemöglichkeit bei der GH4 froh sein wird. Und der interne CodecCodec im Glossar erklärt ist ja auch nicht sooo schlecht, gar keine Frage.



Antwort von klusterdegenerierung:

(im Moment definitiv mit 24,000p wie auch 23,976p, für den Rest braucht es das Firmware-Update wie wir wissen).

Komisch, bei mir ist es genau anders herum!



Antwort von klusterdegenerierung:

Der Lanc Anschluss dürfte gleich sein wie der vom Samurai. Er funktioniert nur im Loop Mode, d.H. man muss an eine Camera durchschleifen, die Lanc versteht. Zum normalen Lanc Protokoll gibt es aber noch ein eigenes serielles Atomos Protokoll über Rs485, welches ohne Kamera verstanden wird. Das serielle Protokoll bekommt man nach Anmeldung von Atomos. Ich hab die Dokumentation auf der Arbeit liegen, weil ich für einen Kunden einen Start/Stop Knopf für den Samurai Blade realisieren musste.

möchte ich auch haben :-)



Antwort von wolfgang:

Anders herum? Also bei 25p gibt die GH4 derzeit interlaced Material (zumindest mit den Ninjas) aus, der pulldown funktioniert nicht. Man bekommt also leider nicht 25p raus. 30p hat mit dem Ninja Blade gar nicht funktioniert. Nur die beiden 24p Varianten funktionieren. Glaube kaum das das anders ist, wurde zigfach bestätigt (darum warten alle auf das firmware update der GH4).



Antwort von iasi:

4k 24fps aus der GH4 war doch schon immer klar ... bei UHD gehen ein paar Bilderchen pro Sek. mehr

Immerhin schafft die GH4 die vollen 4k



Antwort von wolfgang:

Sag ich ja. Aber bei den anderen framerates gibts eben Probleme.



Antwort von iasi:

Sag ich ja. Aber bei den anderen framerates gibts eben Probleme.

frameraten bei welchen auflösungen?



Antwort von klusterdegenerierung:

Anders herum? Also bei 25p gibt die GH4 derzeit interlaced Material (zumindest mit den Ninjas) aus, der pulldown funktioniert nicht. Man bekommt also leider nicht 25p raus. 30p hat mit dem Ninja Blade gar nicht funktioniert. Nur die beiden 24p Varianten funktionieren. Glaube kaum das das anders ist, wurde zigfach bestätigt (darum warten alle auf das firmware update der GH4).

Meiner macht 29.97p, was anderes habe ich aber auch noch nicht versucht.



Antwort von klusterdegenerierung:

Hallo Wolfgang, hast Du gesehen das es eine 6.01 Firmware für den Shogun gibt?
Bislang gab es nur eine 6.00, die auch ich drauf hatte, jetzt erkennt der Shogun bestimmt die GH4!?

Und endlich haben sie ein User Manual online gestellt!! :-)

Meld Dich doch mal kurz.



Antwort von mash_gh4:

ich glaube, jetzt habe ich endlich eine vernünftige erklärung gefunden, warum dieses bildausschnitt ganz rechts in der hinlänglich bekannten demonstration vom stefan czech gar so unbefriedigend ausschaut.

nachdem ich keinen shogun zum testen besitze, bin ich von einer zeitraffer-sequenz bzw. entsprechenden RAW daten ausgegangen, die ich in weiterer folge mit jenen kompressions- und auflösungseinschränkungen versehen habe, wie man sie unter den entsprechenden umständen erhalten sollte.

allerdings wollten sich dabei bei mir keine derart augenfällige unterschiede einstellen, wie man das von den czechschen demonstrationen her erwarten müsste. weder zeigten sich übermäßige kompressionsartifakte bei der internen aufnahmen, noch gab es diese riesigen unterschiede in der banding-ausprägung im vergleich zu den viel voluminöseren prores-files.

erst als ich wirklich ganz genau jenes szenario nachgespielt habe, das czech uns vorgezaubert hat, ging mir ein licht auf!

die irritierenden störungen in czechs ganz rechten bsp. stammen nämlich gar nicht von irgendwelchen mängeln in den ausgangsfiles (=der internen GH4 aufnahme), sondern sind ausschließlich das resultat von berchnungsfehlern, die sich erst in der postproduktion zeigen, wenn mit unzureichender berechnungspräzision derart massive eingriffe vornimmt.

ich hab mich also darin geirrt, diese störungen mit kompressionsartifakten in verbindung zu bringen. wenn man die internen aufnahmen nach dem importieren einfach nur mit der nötigen berechnungsauflösung behandelt, verschwindet der ganze zauber!

im angehängten screenshot, sieht man das wunderbar! es handelt sich dabei um genau die selben ausgangsdaten und Y-kurven-eingriffe -- nur das die "interne aufnahme" im recht fenster mit 16bit präzision (od. mehr) behandelt wird. genau das machen ja auch die meisten programme mit den prores files, selbst wenn darin auch nur 8bit nutzdaten vorhanden sind.

wenn man diesen schritt in der postproduktion sauber berücksichtigt, fällt der unterschied zwischen den externen und internen aufnahmen bemerkenswert gering aus. im detail muss ich dem allerdings noch ein wenig nachgehen, bevor ich mehr darüber berichten kann...



Antwort von klusterdegenerierung:

Ich lese mir gerade das User Manual durch und muß mir echt immer wieder an den Kopf fassen was die Firmen so verzapfen!

Da heißt es doch man soll bei HDD keine einzige WD nehmen und bei SSD keine Samsung Evo...........

..........UND was haben sie bei der verwendung von HDDs für eine Platte abgebildet?
Genau, eine WD!

Und was haben sie bei den erleuterungen der Menüs für eine SSD genommen?
Genau, eine Samsung Evo!

Manchmal fasse ich mir echt an den Kopf und frage mich ob ich jetzt total Banane bin!

"Kopfschütteln"



Antwort von wolfgang:

Also es ist schon zum Kotzen - schreibt man mit dieser Forensoftware ein längeres Posting vom iphone aus dann verliert man das recht gerne weil wenn man sich vertut und eine Werbung anwählt, dann ist das ganze Posting weg - weil die Zurücktaste geht, aber es fehlt dann der ganze Text.

Die Firmware 6.01 habe ich längst drauf - und weder mit der noch mit der 6.0er ist die Erkennung der GH4 irgend ein Thema. Warum wir das GH4 Firmware-Update brauchen ist weil eben derzeit die Ausgabe von z.B. 25p noch nicht sauber aus der GH4 heraus funktioniert. Aber das soll ja demnächst auch kommen.

Beim Shogun selbst sind verschiedenen Testern wie auch mir selbst einige Punkte teils ungut aufgefallen. Einmal wird die mechanische Verarbeitung im Kunststoffgehäuse bemängelt. Das macht zwar das Gewicht geringer, aber die mechanische Stabilität der früheren Atomos Hardware mit Metallgehäuse hat die Sache damit natürlich nicht mehr. Und mit dem Verschrauben sollte man daher aufpassen. Der Bildschirm des Shoguns ist mit 1080p1080p im Glossar erklärt wirklich absolut toll, erlaubt so Dinge wie Schärfekontrolle wirklich gut, vor allem im Zusammenspiel mit Lupenfunktionen (wo man die der GH4 nutzen kann oder die am Shogun selbst). Er ist halt leider glänzend, und ohne Sonnenblende dürfte das im Freien bei Sonnenschein nicht ganz so prickelnd werden.
Ungut ist leider auch der eher hohe Stromverbrauch, der kleine mitgelieferte Akku ist bei der Aufnahme recht schnell leer. Ich verwende längst größere NP Akkus auch wenn die eher schwer sind, die ich von der alten FX1 sowie von diversen Leuchten hier in genügender Zahl herumliegen habe - damit geht die Sache deutlich besser, auch wenn die Ladeanzeige gerne bei der laufenden Aufnahme auch bei mehr als halbvollem Akku in den Rotbereich springt. Aber damit läßt sich halt arbeiten.

Probleme mit der Aufzeichnung des ProResProRes im Glossar erklärt 10bit 422 habe ich nicht, das geht bei mir sowohl auf einer getesten 1TB Festplatte wie auch auf einer SSD Sandisk Ultra II 1TB recht problemlos. Die Datein sind halt - aber das ist eh klar - recht groß. So eine 1TB Platte hat halt in höchster Qualität auch nur über 2h Aufnahmedauer.

Was ich sehnlichst erwarte ist der hier von Stephan angekündigte 4K taugliche Nachfolger des DNxHDDNxHD im Glossar erklärt codecs, der aber noch nicht verfügbar ist (und auch DNxHDDNxHD im Glossar erklärt läßt sich derzeit noch nicht aktivieren). Denn die ProResProRes im Glossar erklärt Files zeigen leider in Vegas Pro 13 unverändert das altbekannte Luminanzproblem, selbst wenn man 16..235 an der GH4 einstellt und auch wenn das vom Shogun so bestätigt gemessen wird so wird das doch leider in Vegas als 16..255 interpretiert. Ist aber mehr ein Problem von Vegas, denn in Edius zeigt sich das wie auch in der Vergangenheit nicht.

Ach ja, die Verarbeitung dieser 10bit ProRes 422ProRes 422 im Glossar erklärt ist insofern nicht so einfach, als auch Raid5 Systeme bei der Dateigröße auf ihre Grenzen stossen. Nicht dass der Dekodieraufwand enorm wäre - aber auf meinem i7 2600K läuft auch vom Raid 5 wie auch beim Abspielen von SSD (über eSATA wie auch USB3) läuft in Edius 7.41 der Puffer relativ rasch leer, und auch in Vegas erreicht man nicht die 24 fps bei 24p Material. Die Wandlung zum Canopus HQX kann das für Edius lösen, oder aber man nutzt in Vegas Pro die Proxys. Leider zeigt sich in Vegas Pro noch das Problem, dass über zirka 25 clips die NLE beginnt instabil zu werden - ein Problem welches an Sony gemeldet ist, und welches derzeit überhaupt die Verarbeitung des Materials in Vegas mit einem großen Fragezeichen versieht. Wirft man mehr clips in die NLE dann bleibt der Vorschaumonitor wie auch die interne Vorschau einfach schwarz. Glücklicherweise gibt es dieses Problem nicht in Edius 7.41.

Zur Frage, wie Czech sein Video gedreht hat, um den Vorteil von 10bit 422 nachzuweisen: also mir war vom Anfang an klar - und er hat das ja auch gesagt - dass er das Banding in einem eher radikalen Nachbearbeitungsschritt bekommen hat. Der Vorteil von 10bit 422 ist ja wohl auch eher genau in der Postpro zu sehen - und weniger in den direkten unbearbeiteten Files. Diese unbearbeiteten Files machen übrigens einen recht guten Eindruck, was etwa NoiseNoise im Glossar erklärt angeht. Aber die Reserven brauchen wir halt eher bei gröberen Korrekturen für Luma und Farben in der Postpro - und dort spielt das Material wohl auch seine Stärke durchaus aus.

Tja das sind so die derzeitigen - ersten - Findings. Ein tolles Gerät mit einigen erkennbaren Schwächen, mit denen man aber wohl leben kann. Und schöne Herausforderungen an Maschinen die für diese Art von Material nicht so recht ausgelegt sind (aber das dürfte kaum wem überraschen).



Antwort von klusterdegenerierung:

Mit GH4 wird nicht erkannt meinte ich das sie nicht Namentlich aufgeführt wird wenn man sie anschließt, im gegnsatz zu meiner 5DII.

Da steht dann nicht unknown, sondern 5D MKII!

Raid würd ich bei Videoscnitt sowie so nicht machen.
Die Prores files laufen gut, selbst auf meinem 2008er MacBook laufen sie zig mal besser als AVCHD.

Ein Sonnenschutz kann man ja dazu kaufen, im Lieferumfang wäre allerdings viel besser gewesen.
Das bearbeiten der Proresfiles in Davinci oder Speedgrade ist super!

Vegas habe ich ab 12 eingestellt, bringts einfach nicht mehr obwohl ich es immer mochte und es schon benutzte als es noch Sound Forge von Sonic Foundry war.



Antwort von wolfgang:

Ich vermute namentlich erkannt wird die GH4 vielleicht nach dem Firmware-Update werden - wobei DAS wäre mir eher egal. Solange sich von der GH4 aus die Aufnahme am Shogun auslösen läßt, was wesentlich wichtiger sein wird.

Es muss ja nicht Raid sein - auch wenn ich das bisher nicht bereut habe. Das Problem ist eher WAS es sein soll? Hast du für die Windows-Welt einen Vorschlag? Denn auch von SSDs aus läßt sich das Material leider nicht mit der vollen Bildrate abspielen, weder in Edius noch in Vegas. Jetzt weiß ich schon dass ProResProRes im Glossar erklärt in der Windowswelt dank Apple unverändert eine Krücke ist - darum warte ich ja mit Sehnsucht auf den DNxHR codec. Und auf Apple werde ich wohl kaum wechseln.

Und DaVinci ist ein gutes Tool - aber an die Schnitteigenschaften von Vegas oder Edius kommts halt doch noch nicht ran?

Ja ein Sonnenschutz wäre nicht schlecht gewesen - nur gibts den für den Shogun derzeit noch nicht mal als Sonderzubehör. Das hätte ich mir zusätzlich gewünscht, statt dem kleinen Akku und statt gleich zwei Ladeteile zu bekommen die ich nicht wirklich gebraucht habe.



Antwort von motiongroup:

ich glaube Wolfgang es müssten so um die 85MB/s sein in Prores HQ 4:2:24:2:2 im Glossar erklärt QHD das stemmt jedes System .... ob das eine Systemfrage ist will ich nicht dokumentieren.. Fakt ist das sich der Gramuri sogar auf nem MacBook Air ohne Probleme verarbeiten läst besonders dann wenn es in Prores zu Verfügung steht. Ich habe ja meinem Kollegen mein altes 2011er macbookpro 17" verkauft und wir haben mit ner neuen Generation der Samsung 850er pro und der internen Platte ein fusionsdrive gestrickt und auch dort keine Probleme .......die AJa und die Bm speedtools gehen beim schreiben über 450mb und beim lesen auf über 590MB/s null Probleme damit.



Antwort von mash_gh4:

Zur Frage, wie Czech sein Video gedreht hat, um den Vorteil von 10bit 422 nachzuweisen: also mir war vom Anfang an klar - und er hat das ja auch gesagt - dass er das Banding in einem eher radikalen Nachbearbeitungsschritt bekommen hat. Der Vorteil von 10bit 422 ist ja wohl auch eher genau in der Postpro zu sehen - und weniger in den direkten unbearbeiteten Files.

dass er zu radikalen nachbearbeitungschritten greift, kritisiere ich in keiner weise. wir wollen ja tatsächlich banding sehen, wie es nur bei derartig massiver (und natürlich ein wenig unrealistischer) nachbearbeitung in erscheinung tritt. es ist aber sicher nicht zu viel verlangt, wenn das in einer weise erfolgen muss, die für alle testfiles die gleichen rahmenbedingungen schafft. erst dann wird ein vernünftiger vergleich möglich.

und wie gesagt, wenn man das macht -- sie also objektiv vergleicht --, fallen die unterschiede zwischen extern aufgezeichnetem 8-bit prores material und interner 8-bit aufnahmen bzgl. banding um sehr viel geringer aus.

Diese unbearbeiteten Files machen übrigens einen recht guten Eindruck, was etwa NoiseNoise im Glossar erklärt angeht. Aber die Reserven brauchen wir halt eher bei gröberen Korrekturen für Luma und Farben in der Postpro - und dort spielt das Material wohl auch seine Stärke durchaus aus.

naja -- ich würde weiterhin gerne realistisches vergleichsmaterial von interner/externer aufnahme downloaden und analysieren. ich fürchte allerdings, dass mich diese umständliche versuchsanordnung, der ich mich die letzten tage über bedient habe, um entsprechende kompressionsbedingte fehler und einschränkungen besser abschätzen zu können, nebenbei auch gelehrt hat, dass vermutlich die meisten noise-/kantentschärfung-/bascurve-bedingten einschränkungen der GH4 bildqualität vermutlich bereits im ausgegebenen 10-bit HDMIHDMI im Glossar erklärt signal enthalten sein dürften, also nicht erst von der internen kompression stammen! es ist wirklich spannend, um wie viel sauberer ein aus entsprechendes, aus RAW daten gewonnenes signal aussehen kann. dieser unterschied scheint augenscheinlicher ausfallen als der vergleich zw. interner und extern aufnahme.

ich glaube Wolfgang es müssten so um die 85MB/s sein in Prores HQ 4:2:24:2:2 im Glossar erklärt QHD das stemmt jedes System .... ob das eine Systemfrage ist will ich nicht dokumentieren.. Fakt ist das sich der Gramuri sogar auf nem MacBook Air ohne Probleme verarbeiten läst besonders dann wenn es in Prores zu Verfügung steht.

also: mein MacBook (2009) liefert auf der internen mechanischen disk unter linux gemessen mit bonnie++ eine sequentielle lesegeschwindigkeit von: 40.357MB/s

das kannst du also getrost vergessen -- auch wenn du nur eine einzige instanz eines prores hq files in einem viewer ansehen willst!

allerdings muss man dazu auch anmerken, dass h264 files auf dieser maschine in 4K auch kaum in echtzeit angesehen werden können, weil die entsprechende hardware-beschleunigung in den damaligen prozessoren und GPUs noch keine 4K auflösung unterstützt und die CPU das nur mit ganz viel mühe schafft. sauberer funktioniert derartiges also wirklich erst auf hardware der letzten 2-3 jahre.



Antwort von klusterdegenerierung:

Ich vermute namentlich erkannt wird die GH4 vielleicht nach dem Firmware-Update werden - wobei DAS wäre mir eher egal. Solange sich von der GH4 aus die Aufnahme am Shogun auslösen läßt, was wesentlich wichtiger sein wird.

Es muss ja nicht Raid sein - auch wenn ich das bisher nicht bereut habe. Das Problem ist eher WAS es sein soll? Hast du für die Windows-Welt einen Vorschlag? Denn auch von SSDs aus läßt sich das Material leider nicht mit der vollen Bildrate abspielen, weder in Edius noch in Vegas. Jetzt weiß ich schon dass ProResProRes im Glossar erklärt in der Windowswelt dank Apple unverändert eine Krücke ist - darum warte ich ja mit Sehnsucht auf den DNxHR codec. Und auf Apple werde ich wohl kaum wechseln.

Und DaVinci ist ein gutes Tool - aber an die Schnitteigenschaften von Vegas oder Edius kommts halt doch noch nicht ran?

Ja ein Sonnenschutz wäre nicht schlecht gewesen - nur gibts den für den Shogun derzeit noch nicht mal als Sonderzubehör. Das hätte ich mir zusätzlich gewünscht, statt dem kleinen Akku und statt gleich zwei Ladeteile zu bekommen die ich nicht wirklich gebraucht habe.

Also ich arbeite auf dem PC mit einem Hotswap Gehäuse in dem ich eine Kopie einschieben kann, die ich von Hand wie ich möchte synchronisiere.
Archivplatten habe ich doppelt und langer jeweils eine bei mir und eine bei meinen Eltern.

Vom Rechner her habe ich fast den selben, aber ich kann nicht meckern, in Premiere läuft es gut.
Nach dem letzte Davinci update läuft es auf dem MacBook nicht mehr, das frisst jetzt wahnsinnig ressourcen.
Aber angeblich soll man jetzt mit dem letzten update min so gut auch schneiden können wie mit Vegas, mußt mal ausprobieren.

Mein alten Imac kann ich zu rendernrendern im Glossar erklärt voll vergessen, den nehme ich nur für Photoshop und Indesign & Co.

Ich finde es total doof das ich nicht meine eigene Lut einpflegen kann, das wäre doch super, da könnte der Kunde in einem grading Fall direkt sehen was ihn erwartet.

Wie kommst Du denn mit den micrometer großen "blauen Pfeile" klar??
Wenn sie die etwas größer gemacht hätten, wäre bestimmt die Freiheitsstatue umgekippt und natürlich hätte man auf einem 7"er überhaupt kein Platz mehr gehabt!!!

Ich habe Atomos übrigens geschrieben das sie das für so alte Säcke mit Westfälischen Wurstfingern doch bitte auch zusätzlich mit ins normale Menü intigrieren sollen. Ich muß da echt zwanzig mal drauf tappsen bis die reagieren!!



Antwort von klusterdegenerierung:

Mal Offtopic.

Hat einer von euch Filmern auch eine Standard AF ZoomZoom im Glossar erklärt Optik mit der er auch mal filmt aber eben auch fotografiert?

Ich wollte mir gleich eine einfache Scherbe kaufen, weill ich ansonsten nur meine manuellen Cines habe oder die Canons ja Af technisch nicht funzen.

In dem Bereich habe ich mich noch nie aufgehalten und wollte mal fragen ob ich damit dann ähnlich wie ein Camcorder aggieren kann und wie da die settings sein müssen? Gibt es da irgendwo eine art "how to"?
Auch für den Fotobereich? Da sie ja so schnell ist und eine große Af Feld abdeckung hat, sollte man damit ja auch ganz gut aus der Hüfte schiessen können oder?

Natürlich kann ich mich da als Fotograf auch durchfuchsen, aber wenn es da gute settings gibt, wäre ich für die eingesparte Freizeit sehr dankbar! :-) ;-)



Antwort von motiongroup:

also: mein MacBook (2009) liefert auf der internen mechanischen disk unter linux gemessen mit bonnie++ eine sequentielle lesegeschwind

das glaube ich dir gerne doch sieht es hier mit einem 2014er mbair oder eben dem aufgerüsteten alten 2011er mbpro nicht so aus..von einer Raid5 Anbindung wie Wolfgang schreibt red ich schon mal gar nicht..

wenn der Schmarn wie in unserem Fall auf Tour mit nem Air den Rohschnitt anfängt, drehen wir am Rad und stellen auf Proxy Schnitt und ab damit. Daheim einfach Transfer aufs raid und Switch to ...fertig..



Antwort von mash_gh4:

das glaube ich dir gerne doch sieht es hier mit einem 2014er mbair oder eben dem aufgerüsteten alten 2011er mbpro nicht so aus..von einer Raid5 Anbindung wie Wolfgang schreibt red ich schon mal gar nicht...

eh klar! ich schneide ja auch nicht auf dieser maschine, sondern benutze sie höchstens noch um sinnlose forenbeiträge zu verfassen. :)

trotzdem -- man sollte die io-bottlenecks von typischen intermediate codecs nicht ganz herunterspielen. so unproblematisch sind diese unglaublichen bandbreiten nicht. speziell heute, wo man pratisch in jeder aktuellen hardware verdammt effiziente hardware-unterstützung für anspruchsvollere kompressionsvarianten vorfindet.

wie gesagt: wirklich brauchbare vergleiche zw. interner und externer aufzeichnung (evtl. auch noch unter einbeziehung von zusätzlichem RAW referenzmaterial) würden mich weiterhin sehr freuen.



Antwort von wolfgang:

Martin ich hätte kein Problem auf den Proxyschnitt zu gehen - den unterstützt Vegas ja auch. Mein Problem ist dass ich es gar nicht schaffe in Vegas mehr als ca. 25 dieser UHD 10bit 422 Files zu laden, ohne dass mir Vegas abschwirrt. DAS ist ein echter Showstopper.

In Edius ist das besser - die Datein werden wenigstens alle mal importiert. Aber auch dort läuft der Puffer beim Abspielend der Datein leer. Arbeiten ohne dort auf den HQX-codec zu gehen ist auch eher lustlos.

Die kleinen Pfeilchen sind halt nicht leicht zu treffen - ja die hätten sehr wohl größer sein können.



Antwort von klusterdegenerierung:

also: mein MacBook (2009) liefert auf der internen mechanischen disk unter linux gemessen mit bonnie++ eine sequentielle lesegeschwind

das glaube ich dir gerne doch sieht es hier mit einem 2014er mbair oder eben dem aufgerüsteten alten 2011er mbpro nicht so aus..von einer Raid5 Anbindung wie Wolfgang schreibt red ich schon mal gar nicht..

wenn der Schmarn wie in unserem Fall auf Tour mit nem Air den Rohschnitt anfängt, drehen wir am Rad und stellen auf Proxy Schnitt und ab damit. Daheim einfach Transfer aufs raid und Switch to ...fertig..

Sag ich ja. Mein 2008er hat eine nagelneue fixe SSD und ich kann in Premiere durch das 4K Material durchscrobben, selbst bei voller Quali, aber wehe ich muss es abspielen, ohweia!!
Und an rendernrendern im Glossar erklärt ist überhaupnict zu denken, da dauert 30sec 4K zu 2K min eine Stunde, aber ohne FX und so!!!



Antwort von domain:


Zur Frage, wie Czech sein Video gedreht hat, um den Vorteil von 10bit 422 nachzuweisen: also mir war vom Anfang an klar - und er hat das ja auch gesagt - dass er das Banding in einem eher radikalen Nachbearbeitungsschritt bekommen hat.

Der muss aber wohl wirklich radikal gewesen sein.
An anderer Stelle habe ich ja schon darauf hingewiesen, dass markantes echtes Banding auch im 8-Bit-Modus gar nicht so leicht zu erzielen ist.
Dazu mal ein Beispiel mit einem synthetisch erzeugten Graukeil in Photoshop im Schattenbereich zwischen 30 und 105. Originalbreite nur 100 PixelPixel im Glossar erklärt, hier auf 400 mit Pixelwiederholung vergrößert.



Dann die Annahme, dass man auf Teal&Orange machen wollte. Also die Schatten maximal auf Cyan eingefärbt



Und dann einen nur ca. 25 PixelPixel im Glossar erklärt breiten Bereich von 50-80 auf 0-255 über Tontrennung gespreitzt, also auf einen viel kleineren Bereich bezogen als es der ohnehin schon enge Originalbereich eigentlich hergeben würde.
Man erkennt jetzt zwar Banding mit Pixelbreite, vor allem aber andere Effekte wie PixelPixel im Glossar erklärt in variierenden Farben.



Ich muss aber noch dazu sagen, dass ich Bandingeffekte auch kenne und zwar schon bei relativ maßvollen Veränderungen im 8-Bit-Originalmaterial aus der Kamera.
Ursache unbekannt, rein theoretisch aber schwer zu erkären.



Antwort von ruessel:

Dazu mal ein Beispiel mit einem synthetisch erzeugten Graukeil in Photoshop im Schattenbereich zwischen 30 und 105. Originalbreite nur 100 PixelPixel im Glossar erklärt, hier auf 400 mit Pixelwiederholung vergrößert.

du arbeitest da aber mit 4:4:4........



Antwort von domain:

Habe mir auch schon gedacht, dass das eine Erklärung sein könnte :-)



Antwort von motiongroup:

hallo Wolfgang, ich werde mir bevor ich mich dazu verleiten lasse zu irgendeiner Software die ich nicht benutze einen Kommentar abzugeben eher die Zunge abbeißen, dass können andere viel besser.....hier geht's nur um die von dir verwendete Hardware.. DAS MUSS FUNKTIONIEREN wenns in Vegas und Edius nicht funktioniert und auch in allen anderen Apps wie adobe und Davinci unter "" dann hat's was bei deiner HW/SW Konfiguration.

@kluster? 30sec 4k ProresHQ 4:2:24:2:2 im Glossar erklärt 10bit zu 2k ProresHQ 4:2:24:2:2 im Glossar erklärt 10bit dauern 2 Stunden ?????

das muss ich morgen gleich testen, da bin ich wieder unterwegs..,waaaaaahhhhhhnnnnnsinnnnn..



Antwort von wolfgang:

Nee hats nicht Martin. In Edius gehts ja der Import. Und in Vegas gibts 2 bugs: einmal die falsche Interpretation der LuminanzLuminanz im Glossar erklärt von ProResProRes im Glossar erklärt Files (altbekannt und von SCS einfach nicht gelöst). Und der zweite bug, dass Vegas mit mehr als 25 dieser Files abstürzt, ist neu aber kein Hardware sondern ein Vegas bug. Und an SCS gemeldet dass die wieder was haben was sie ignorieren können.

Dass das Abspielen nicht klappt ist vielleicht auch ein Dekodierproblem. Die ProResProRes im Glossar erklärt Kiste unter Windows ist ja matt. Ich wandle das jetzt im batch Verfahren mit TmpGenc zum Canopus HQX, erhalte dabei 10bit 422, umgehe das Lumathema in Vegas (getestet) und umgehe auch die Abspielprobleme die es sowohl in Vegas wie auch in Edius mit den Originalfiles bestehen. Und gut ist es ...



Antwort von wolfgang:

Doppelposting



Antwort von motiongroup:

ja der Import aber wie ich hier und bei dir drüben lesen konnte brechen bei vielen Usern bei Edius die Vorschauleistungen ein.. ist der Puffer leer geht nichts mehr... kennen wir doch auch von anderen Rel und mit jedem neuen technologiesprung ist's das gleiche.. ob und warum Vegas strauchelt kann ich nicht sagen... unter Windows ist zumindest bei Davinci doch so das die nicht auf die QT Library setzen ..

ich bin halt nur der Ansicht das die hw Leistung ausreichen müsste da Prores eher keine Res. braucht...



Antwort von wolfgang:

Warum Vegas hier abstürzt soll sich SCS ansehen - mehr als melden kann man das denen nicht. Und vielleicht hat man ja mit den kleineren Datein vom Shogun mehr Glück - ich habe natürlich mal in der maximalen Dateigröße HQ gearbeitet, es gibt aber auch noch 422 oder LT.

Klar sollte die Hardware eigentlich reichen. Aber Quicktime mit seiner alten 32 bit Architektur in der Windoff Welt - na was weiß man.



Antwort von klusterdegenerierung:

hallo Wolfgang, ich werde mir bevor ich mich dazu verleiten lasse zu irgendeiner Software die ich nicht benutze einen Kommentar abzugeben eher die Zunge abbeißen, dass können andere viel besser.....hier geht's nur um die von dir verwendete Hardware.. DAS MUSS FUNKTIONIEREN wenns in Vegas und Edius nicht funktioniert und auch in allen anderen Apps wie adobe und Davinci unter "" dann hat's was bei deiner HW/SW Konfiguration.

@kluster? 30sec 4k ProresHQ 4:2:24:2:2 im Glossar erklärt 10bit zu 2k ProresHQ 4:2:24:2:2 im Glossar erklärt 10bit dauern 2 Stunden ?????

das muss ich morgen gleich testen, da bin ich wieder unterwegs..,waaaaaahhhhhhnnnnnsinnnnn..

Ja, auf meinem 2008 MacBook!
Auf meinem PC ein paar Minuten.



Antwort von mash_gh4:

An anderer Stelle habe ich ja schon darauf hingewiesen, dass markantes echtes Banding auch im 8-Bit-Modus gar nicht so leicht zu erzielen ist.

das sehe ich genauso! -- speziell bei natürlicher kameraaufnahmen und realistischem rauschen...

wobei es ja im vorliegenden fall schon reichen würde, wenn man sich von externen 8bit aufnahmen nicht mehr erwartet würde als von internen... (bzw. sich über mögliche fehlerquellen in der nachbearbeitung gedanken macht, wenn sich unterschiede zeigen)

Ich muss aber noch dazu sagen, dass ich Bandingeffekte auch kenne und zwar schon bei relativ maßvollen Veränderungen im 8-Bit-Originalmaterial aus der Kamera. Ursache unbekannt, rein theoretisch aber schwer zu erkären.

keine frage!

manche dieser probleme könnten bei 10bit aufzeichnung und entsprechend umsichtiger nachbearbeitung sicher besser in den griff zu bekommen sein. ausgeschlossen sind entsprechende störungen dadurch aber noch lange nicht. im zuge der verabeitung und abschließenden ausgabe in 8bit formaten bzw. auf entsprechend beschränkten wiedergabegeräten, ergeben sich ständig neue möglichkeiten dazu, wenn keine betreffenden vorkehrungen getroffen werden. das kann unter umständen schlimmer ausgehen als es manche kamera wenigstens für unveränderte 8bit ausgaben zu optimieren vermag. ;)



Antwort von wolfgang:

Man sollte den Hauptgrund für 10 oder 12bit nicht vergessen: und der ist dass man damit in der Postpro viel mehr Spielraum bei Korrekturen hat, und dass dabei weniger Rauschen ins Material bringt. Banding ist wohl mehr ein Weg um einen Unterschied zu 8bit drastisch sichtbarer zu machen, aber nicht unbedingt der Hauptgrund für 10bit.



Antwort von domain:


Ich muss aber noch dazu sagen, dass ich Bandingeffekte auch kenne und zwar schon bei relativ maßvollen Veränderungen im 8-Bit-Originalmaterial aus der Kamera.

Hier mal ein 1:1 Ausschnitt aus einem Schnappschuss von einem Eisenbahnvideo. Ungünstigste Voraussetzungen: starke Bewegung im Clip und Mischlicht auf der Unterseite des Bahnsteigdaches. Weiters 420 in 8 BitBit im Glossar erklärt und AVCHD-Codec.
Als einzige Manipulation danach den Kontrast in Photoshop stark erhöht.
Da könnte es direkt der Sau grausen, aber Gottseidank war das Dach schnell aus dem Video verschwunden.
Wie man sieht werden ganze Flächen in einer einzigen Farbe kodiert bevor sie auf eine andere umspringt. Das ist auch eine Ursache für Banding, aber die 8 Bit-Auflösung an sich wohl eher nicht.





Antwort von Angry_C:

Das habe ich so noch nie gesehen, außer vielleicht bei meinem alten Samsung Galaxy I. Welche Kamera hat dieses denn verursacht?



Antwort von domain:

Sony HX20 V, die in div. Tests eigentlich ganz gut abgeschnitten hat.
Hätte doch lieber mit der Canon XF100 in 422 filmen sollen :-)
Eines erscheint aber doch offensichtlich: viele Fehler werden bereits in der Kamera und ihrer Codierung produziert. Im Nachhinein kann man das dann natürlich gut verstärken, wenn man will.
Im Video selbst erkennt das hier demonstrierte Banding im viel flacheren Originalkontrast natürlich nur das geschulte Auge, keinesfalls aber ein am Inhalt interessierter normaler Zuseher.





Antwort von mash_gh4:

endlich gibt's brauchbares vergleichsmaterial zum downloaden:



bzw.

http://www.mediafire.com/download/8wlr7 ... amples.zip



Antwort von domain:

da hätte man die Bilder aber auch vertauschen können, wäre niemand aufgefallen. Oder muss ich mal zum Augenarzt gehen?



Antwort von mash_gh4:

da hätte man die Bilder aber auch vertauschen können, wäre niemand aufgefallen. Oder muss ich mal zum Augenarzt gehen?

ich denke, das war im wesentlichen vorherzusehen. schon bei verschiedenen vergleichen mit der C100 hat sich ganz ähnliches mit älteren externen rekordern gezeigt.

allerdings müsste man der ehrlichkeit halber auch hinzufügen, dass internes H.264 material nicht mehr so gut aussieht, wenn der codec wirklich gestresst wird. da spielt dann prores seine stärken bzw. konstanz aus. schöne ruhige landschaftsbilder sind in dieser hinsicht also eher mit einer gewissen vorsicht zu genießen.

siehe auch:
http://www.cinema5d.com/canon-c100-inte ... -compared/



Antwort von FilmerMike:

Hab mal eine FarbkorrekturFarbkorrektur im Glossar erklärt beider Clips getestet.
Eben einmal vom Recorder und einmal von der internen Aufnahme.

Da merkt man es natürlich schon sehr deutlich, gerade in Bewegtbildern.
Hab hier zwei Frames aus After Effects herausgerendert. Am besten in Originalgröße betrachten:

ATOMOS

INTERN



Antwort von VideoUndFotoFan:

Hast du vielleicht einen 10bit-Monitor ?
Denn ich, auf meinem 8bit, sehe da keinen nennenswerten Unterschied, den man durch etwas andere Bildparameter-Einstellungen in der GH4 nicht anpassen könnte, bzw. auch nachträglich im NLE !

Schreib also mal, was der nennenswerte Unterschied sein soll.



Antwort von Frank Glencairn:

..sehe da keinen nennenswerten Unterschied,..

Schreib also mal, was der nennenswerte Unterschied sein soll.



Antwort von CameraRick:

Der pure Vergleich der Bilder auf YouTube ist ja auch total daneben, im Zweifel sieht man da natürlich nicht viel. Geht ja auch nicht darum wenn man das Material belässt wie man ist, sondern wenn man damit auch mal arbeitet.

Bei den herunterladbaren Clips kannst es sogar schon beim zweiten im direkten Vergleich sehen (Rolloff um die Sonne herum, großer Unterschied).
Wenn man das Material jetzt noch mal "gröber" oder sagen wir zumindest detaillierter anfässt, dann gehts rund.



Antwort von -paleface-:

Hab mal eine FarbkorrekturFarbkorrektur im Glossar erklärt beider Clips getestet.
Eben einmal vom Recorder und einmal von der internen Aufnahme.

Da merkt man es natürlich schon sehr deutlich, gerade in Bewegtbildern.
Hab hier zwei Frames aus After Effects herausgerendert. Am besten in Originalgröße betrachten:

ATOMOS

INTERN

Bei den Atomos Aufnahmen sind definitiv mehr Details.
Außerdem sind die Kompressions ArtefakteArtefakte im Glossar erklärt verschwunden.



Antwort von mash_gh4:

Hab mal eine FarbkorrekturFarbkorrektur im Glossar erklärt beider Clips getestet.
Eben einmal vom Recorder und einmal von der internen Aufnahme.

danke, dass du dir die mühe angetan hast.

Bei den Atomos Aufnahmen sind definitiv mehr Details.

was die details bzw. schäfe in den konturen betrifft, muss ich dir gefühlsmäßig recht geben.

hier wirkt sich 4:2:24:2:2 im Glossar erklärt vs. 4:2:04:2:0 im Glossar erklärt offenbar doch ziemlich deutlich aus. es deckt sich jedenfalls ganz gut mit jenen unterschieden, die man auch erhält, wenn man wirklich scharfes material in beiden unterabtastungsvarianten unabhängig von der komprimierungsmethode unter der lupe vergleicht.

realistischer weise sollte man allerdings auch nicht völlig übersehen, in welcher relation diese unterschiede zum wesentlich deutlicher sichtbaren überschärfen der kamera und der gewählten rauschunterdrückung (hier: -1) stehen.

Außerdem sind die Kompressions ArtefakteArtefakte im Glossar erklärt verschwunden.

ja -- auch das ist interessant.

ich bin mir nämlich nicht ganz sicher, ob hier im zuge des zu tode gradens tatsächlich ein ganz prinzipielles problem sichtbar wird, oder doch nur einen fehler beim deblocking?

sowohl im resolve als auch in fusion zeigen sich nämlich auch bei mir am beginn der aufnahme genau solche störungen, die dann spätestens nach dem ersten i-frame nicht mehr in erscheinung treten.



Antwort von eko:

..sehe da keinen nennenswerten Unterschied,..

Schreib also mal, was der nennenswerte Unterschied sein soll.

Ha,ha,ha...

schon 57 mal angeschaut!

Und?
Brille ja oder nein?

Der Frank ist schon ein Schelm!



Antwort von domain:

Also die hier gezeigten "Unterschiede" sind m.E. ja gar nicht der Rede wert. Wieso ist bisher eigentlich niemand imstande die zweifellos vorhanden Vorteile besser zu demonstrieren?
So ein Reißschwenk mit Stroboeffekt über eine stark gemusterte Tapete in vielen Pastellfarben mit einer Lampe, die direkt ins Objektiv leuchtet und einer schwarzen Katze im Vordergrund, das wäre mal eine realistische Situation :-)



Antwort von klusterdegenerierung:

Meinst Du wenn es wirklich einen großen Unterschied gäbe, hätte Atomos uns den nicht schon längst selbst gezeigt?? :-):-)



Antwort von klusterdegenerierung:

Ich denke der Nachweiß wird nur dann Sichtbar, wenn man nicht große Motive nebeneinander stellt, sondern in dem man ganz dezidiert 100% Auschnitte für NoiseNoise im Glossar erklärt, KompressionKompression im Glossar erklärt, Dynamik & Farbverläufe produziert.

Zusätzlich braucht man screenshots aus Davinci, aus denen hervorgeht um wieviel % mehr Raum ich bei Gain und Konsorten im Gegensatz zur 8Bit 420 Version habe.

Alles andere wie zb. Filmchen auf Vimeo gucken, nachdem Motto guck mal 10Bit, och wie schön, funzt ja nicht ;-)

Ich werde mal Versuchen so etwas zu realisieren!
Abends könnt ihr dann in "Biete" meinen Shogun ersteigern! :-)))



Antwort von wolfgang:

Immer die Leute die nach besseren Demos schreien, und sie dann doch nicht glauben wenn sich Leute wie Czech die Mühe machen diese zu generieren. ;)

Wir haben im Videotreffpunkt zumindest zwei LT Files (also die mit der geringesten DatenrateDatenrate im Glossar erklärt des Shoguns) mal zum download eingestellt. Finden sich hier:

http://www.videotreffpunkt.com/index.ph ... UHD-Files/

Damit kann jeder sich mal die Sache selbst in seine NLE laden und spielen - was etwa bei Helligkeits- und Farbkorrekturen passiert. Dass dieser CodecCodec im Glossar erklärt mit 10bit 422 bei diesen Korrekturen mehr Reserve hat und bei diesen Schritten weniger Rauschen ins Material kommt ist bei Coloristen unbestritten.

Ob man das dann für sich persönlich braucht ist dann eine ganz andere Entscheidung - die von den Zielen und wofür man filmt abhängt. Das wäre mal eine sachlich-reflektierende Sichtweise. Einige filmen ja in Raw weil ihnen selbst ProResProRes im Glossar erklärt zu schlecht ist, einige filmen in ProResProRes im Glossar erklärt weil sie raw nicht graden wollen, und einige sind auch mit 8bit 420 glücklich. Jedem das Seine.



Antwort von domain:

Ja stimmt, hatte ganz vergessen, dass eine Leute, nämlich der Herr Czech das unter größten Verrenkungen in der Nachbearbeitung demonstriert hat ;-)
Ich habe aber auch was demonstriert, das hast du wohl übersehen.
Außerdem bestreite ich ja gar nicht, dass die neuen Aufzeichnungsverfahren rein theoretisch große Vorteile erbringen müssen.



Antwort von klusterdegenerierung:

Und was habe ich davon mir einen LT File runter zu laden, wenn ich keinen exakten Vergleich habe.

Das bringt doch rein garnix! Und das der Czech sich Mühe gegeben hat ist ja unbestritten, aber wenn der quasi im Auftrag von Atomos einen Unterschied zurechfrickeln muß, weil man es sonst kaum zeigen kann, ist das doch etwas traurig!



Antwort von wolfgang:

Und was habe ich davon mir einen LT File runter zu laden, wenn ich keinen exakten Vergleich habe.

Dann mach es halt nicht. Ist ja kein Muss.



Antwort von klusterdegenerierung:

Und was habe ich davon mir einen LT File runter zu laden, wenn ich keinen exakten Vergleich habe.

Dann mach es halt nicht. Ist ja kein Muss.

Wieso denn auch, Du weißt doch das ich selber einen habe!
Immer diese zickigkeiten hier im Forum bloß weil man eine andere Meinung hat!



Antwort von klusterdegenerierung:

Hier mal gerade im letzten Metabones Vergleich Thread gefunden, passt ganz gut hierrein! :-)

http://blog.josephmoore.name/2014/11/05 ... e-d-sucks/



Antwort von FilmerMike:

Was ich unbedingt noch ins Thema werfen muss:

Viele hier regen sich so über den Atomos Recorder auf, weil der Unterschied zur GH4 internen Aufnahme zu gering ist.

Bitte erklärt mir das mal.
Der Atomos wurde doch nicht (allein) für die GH4 produziert.
Ich meine, die Vorteile, die der Recorder mit sich bringt, haben sich doch alle erfüllt... 10bit, besserer codek und vielleicht noch das Monitoring.
Und was erwartet man daraus? 16bit 4:4:4?

Dass nun mehr Spielraum fürs Grading und Korrigieren zur Verfügung steht merkt jeder, der sich die Beispieldateien mal heruntergeladen hat.
Banding kann ich auch keines mehr erkennen, geschweige denn irgendwelche Artefakte. Ob das nun 2000€ Wert ist, muss jeder selbst für sich entscheiden. Ich selbst könnte das alles gut gebrauchen, auch wenn es mir nicht ganz die 2000 Wert sind.

Worauf ich eigentlich hinaus wollte: An der A7s zeigen sich die vorteile ja.
Der Betreiber des Youtube-Channels Neumannfilms schreibt sogar in den Kommentaren unter dem Vergleichsvideo, dass er sein GH4-System extra verkauft und auf die A7s mit dem Recorder umsteigt.

Alles was ich von der A7s in Verbindung mit dem Atomos gesehen habe, hat mich zumindest beeindruckt. Das ist meiner Meinung nach schon 2000 Euro wert. Also nur weil der Atomos kein 4k Raw aus meinem Handy zaubert, ist er keinesfalls schlecht oder sein Geld nicht wert.

... hat mich nur gerade n bisschen genervt, will damit keinem wieder auf die Füße treten.



Antwort von klusterdegenerierung:


Alles was ich von der A7s in Verbindung mit dem Atomos gesehen habe, hat mich zumindest beeindruckt. Das ist meiner Meinung nach schon 2000 Euro wert. Also nur weil der Atomos kein 4k Raw aus meinem Handy zaubert, ist er keinesfalls schlecht oder sein Geld nicht wert.

... hat mich nur gerade n bisschen genervt, will damit keinem wieder auf die Füße treten.

Das hat ja auch keiner bestritten, da hast Du etwas missverstanden.
Klar weiß das Ding jeder zu schätzen und wir wissen auch das er was kann und das er das auch an anderen Cams gut oder besser kann!

Hier ging es also nur um die GH4 und den anfänglichen quwerelen und die updates und dem Test von Czech der etwas Fragwürdig war.

Mit anderen Worten ist Deine Post, ein Pendant zu der Türszene in "The Big Lebowski"



Eine offene Tür, kein Wiederstand, kein Grund zur veranlassung, nix neues etc. etc. :-)



Antwort von FilmerMike:

Na dann bin ich ja beruhigt :-)

Man wird nur hin und wieder angeschrieben was man von dies und das hält.
Und da kommen des öfteren Sätze wie "Der Atomos bringt ja angeblich gar nichts, da hast du kaum Unterschiede". Und so hat sich das laut vielen Posts eben angehört. Ist halt immer ne Frage des (vielleicht unerfahrenen) Lesers.



Antwort von wolfgang:


Wieso denn auch, Du weißt doch das ich selber einen habe!
Immer diese zickigkeiten hier im Forum bloß weil man eine andere Meinung hat!

Das Angebot hat sich auch nicht an dich gerichtet - du kannst dir ja leicht selbst einen Vergleich machen. Es ist an die Leute gerichtet die halt mal mit Files spielen wollen. Das hat mit Zickigkeit nichts zu tun.

Abgesehen: wenn ernsthaft bezweifelt wird das 10bit 422 was bringt, tja dann ist es offenbar so dass es vielen nicht ausmacht, wenn sie nach einer intensiveren Korrektur halt nur noch Rauschen vor sich haben. Diese User wird ohnedies kaum was überzeugen. Mögen sie bei 8bit 0:0:0 bleiben! :)



Antwort von iasi:

nun - der zusätzliche Gestaltungsspielraum, den 10bit gegenüber 8bit bringt, mag ja nicht für alle von Bedeutung sein - Event-Filmer mit viel Material sehen wohl eher zu, dass sie aus der Kamera das bekommen, das dann auch gleich gezeigt werden kann.

Wer sich jedoch dem Material noch etwas intensiver widmen möchte, der ergänzt seine GH4 mit dem Shogun.



Antwort von mash_gh4:

Abgesehen: wenn ernsthaft bezweifelt wird das 10bit 422 was bringt, tja dann ist es offenbar so dass es vielen nicht ausmacht, wenn sie nach einer intensiveren Korrektur halt nur noch Rauschen vor sich haben. Diese User wird ohnedies kaum was überzeugen. Mögen sie bei 8bit 0:0:0 bleiben! :)

nein -- ich glaube, da siehst du etwas falsch.

natürlich wünschen sich alle eine wirkliche verbesserung. die frage ist nur, ob 10bit 4:2:24:2:2 im Glossar erklärt für einen preis jenseits der kamera hier bereits als befriedigende lösung anzusehen ist. wenns't auch nur ein bisserl ernsthafter mit derartigem gerät fotografiertst, ist dir sicher nicht unbekannt, um wie viel mehr sich aus den entsprechenden RAW daten herausholen lässt bzw. warum man um JPEGs selbst bei großzügig bemessenen dateivolumen einen großen bogen macht.

dass derartige wünsche und bestrebungen nicht ganz aus der luft gegriffen sind bzw. durchaus realisiert werden könnten, weiß man spätestens seit dem eoshd-interview mit yoshyuki inoue (senior engineer planer bei panasonic) aus erster hand. in der vorliegenden form sind die moderaten verbesserungen aber wirklich kaum die aufregung darum wert.

http://www.netzwelt.de/news/149390-lumi ... ingen.html
http://www.eoshd.com/2014/10/interview- ... ware-v2-0/

ich halte es im übrigen auch für für völlig unangebracht, dass in dieser diskussion nur jene mitreden können sollen, die entsprechendes gerät bereits besitzen. mir erscheint es mindestens genauso wichtig, aufzuzeigen, wie man aus den zu grunde liegenden geräten generell ein maximum herausholen vermag bzw. die entsprechenden grenzen genau zu kennen und auszuloten. manche probleme zeigen sich dann gar nicht erst, weil man sie schon bei der aufnahme entsprechend berücksichtigt.



Antwort von klusterdegenerierung:


Wieso denn auch, Du weißt doch das ich selber einen habe!
Immer diese zickigkeiten hier im Forum bloß weil man eine andere Meinung hat!

Das Angebot hat sich auch nicht an dich gerichtet - du kannst dir ja leicht selbst einen Vergleich machen. Es ist an die Leute gerichtet die halt mal mit Files spielen wollen. Das hat mit Zickigkeit nichts zu tun.

Abgesehen: wenn ernsthaft bezweifelt wird das 10bit 422 was bringt, tja dann ist es offenbar so dass es vielen nicht ausmacht, wenn sie nach einer intensiveren Korrektur halt nur noch Rauschen vor sich haben. Diese User wird ohnedies kaum was überzeugen. Mögen sie bei 8bit 0:0:0 bleiben! :)

Also so doch Zickigkeit? :-);-) Hey Spaaaaaaaaaß



Antwort von mash_gh4:

nun - der zusätzliche Gestaltungsspielraum, den 10bit gegenüber 8bit bringt, mag ja nicht für alle von Bedeutung sein - Event-Filmer mit viel Material sehen wohl eher zu, dass sie aus der Kamera das bekommen, das dann auch gleich gezeigt werden kann.

Wer sich jedoch dem Material noch etwas intensiver widmen möchte, der ergänzt seine GH4 mit dem Shogun.

nein - auch für diese gruppe von dokumentaristen wäre eine hochwerrtige externe 4k aufzeichnung sicher nicht uninteressant. das 30min aufnahmelimit des europäischen kameramodells ist hier bekanntlich denkbar hinderlich. allerdings dürften auch die batterieprobleme beim shogun und der datenwust hochwertiger prores aufzeichnungen dabei nicht wirklich hilfreich sein.

ich fürchte also, dass wir für diese belange eher weiter auf einen einfachen firmware patch aus dem untergrund warten müssen, der dann mit ein-zwei geänderten bytes eine deutlichere verbessung als dieses 1500€-gerät schaffen könnte. ;)



Antwort von klusterdegenerierung:

ich halte es im übrigen auch für für völlig unangebracht, dass in dieser diskussion nur nur jene mitreden können sollen, die entsprechendes gerät bereits besitzen. mir erscheint es mindestens genauso wichtig, aufzuzeigen, wie man aus den zu grunde liegenden geräten generell ein maximum herausholen vermag bzw. die entsprechenden grenzen genau zu kennen und auszuloten. manche probleme zeigen sich dann erst gar nicht erst, weil man sie schon bei der aufnahme entsprechend berücksichtigt.

Geht es hier echt immer noch darum zu beweisen ob das Gerät was kann oder demjenigen was bringt der es erwerben will oder hat?

Natürlich ist es so, oder meint ihr die Ninjas oder Samurais wurden so gut verkauft weil es keine guten und preiswerteren Fieldviewer gibt?

Das ist doch jetzt langsam echt albern und das dieser Preis fraglich zu sein scheint ist erst recht albern.
Zieht doch mal den Moni und die Audioeinheit ab, dann ist man da wo auch der Preisunterschied zwischen einem AVCHDAVCHD im Glossar erklärt Camcorder und einen P2HD Camcorder mit 10bit 422 liegt.

Wer es braucht kauft es sich und wer es nur haben will weil er genug Kohle hat, der ebenfalls etc.



Antwort von wolfgang:

natürlich wünschen sich alle eine wirkliche verbesserung. die frage ist nur, ob 10bit 4:2:24:2:2 im Glossar erklärt für einen preis jenseits der kamera hier bereits als befriedigende lösung anzusehen ist. wenns't auch nur ein bisserl ernsthafter mit derartigem gerät fotografiertst, ist dir sicher nicht unbekannt, um wie viel mehr sich aus den entsprechenden RAW daten herausholen lässt bzw. warum man um JPEGs selbst bei großzügig bemessenen dateivolumen einen großen bogen macht.

Na der Shogun kostet nicht unbedingt mehr als was man (als Filmer) so für Kamera und Objektive ausgibt. Hängt davon ab was man investiert. Klar könnte die Sache immer billiger sein - aber hier kann ja jeder entscheiden ob er kauft oder nicht kauft.

Natürlich ist aus raw mehr herausholbar - aber nicht jeder will einen raw-workflow durchführn. Ich etwa will das bisher nicht.

dass derartige wünsche und bestrebungen nicht ganz aus der luft gegriffen sind bzw. durchaus realisiert werden könnten, weiß man spätestens seit dem eoshd-interview mit yoshyuki inoue (senior engineer planer bei panasonic) aus erster hand. in der vorliegenden form sind die moderaten verbesserungen aber wirklich kaum die aufregung darum wert.

Da gibts nicht nur dieses Interview, sondern auch noch ein Video welches seit einiger Zeit herum geistert - und welches die Nutzung von v-log zusammen mit einer GH4 und dem Shogun zeigt. Sowas wäre natürlich noch besser wenn man das könnte - dass der Shogun auch Cinema DNG können wird ist bekannt. Dass die GH4 auch raw ausgeben wird ist bisher von Panasonic noch nicht endgültig bestägigt. Dieser Satz hier erscheint mit dem Wörtchen "may" vielleicht doch etwas wage:

EOSHD: So the raw HDMIHDMI im Glossar erklärt output isn’t compatible with the external recorders? I know the Odyssey 7Q can take a raw output from the FS700. Maybe you can work with a manufacturer like Atomos, to update their firmware to take a raw output from the GH4?

Inoue: Currently, it is not available but we have already received such a request from filmmakers, so we may have another firmware update for it after.

ich halte es im übrigen auch für für völlig unangebracht, dass in dieser diskussion nur jene mitreden können sollen, die entsprechendes gerät bereits besitzen.

Hat das wer gesagt? Aber ich wehre mich dagegen bekannte Tatsachen zu ignorieren - wie etwa dass eben 10bit 422 keinen Vorteil bringen solle. Das ist so einfach nicht richtig.



Antwort von CameraRick:

Ich hab mir mal dieses Neumann Material angeschaut.

Welche Pappnasen haben noch mal behauptet dass 4K 8bit auf HD skaliert magisch deutlich besser wird?
Kann denen mal jemand den Link schicken? Ist ja eklig wie sich das Kamera-Material verhält. Nicht, dass es überraschend käme, aber eklig bleibt es.



Antwort von mash_gh4:

Natürlich ist aus raw mehr herausholbar - aber nicht jeder will einen raw-workflow durchführen. Ich etwa will das bisher nicht.

natürlich verstehe ich das gut. trotzdem wäre es vermutlich der zielführendeste weg, wirklich ein maximum aus der kamera herauszuholen. jene kameratypischen probleme, die man auch in den shogun-aufzeichnungen deutlich erkennt, bekommt man sonst einfach nicht in den griff.

aber, ich geb dir schon recht, man muss am boden der realen möglichkeiten bleiben. in diesem sinne sollte man dann allerdings auch 10bit, 4:2:24:2:2 im Glossar erklärt oder prores lieber nicht als zauberwörter verstehen. nur weil irgendwas derartiges jetzt greifbar ist, wird aus einer a7s oder gh4 noch lange keine alexa.

dazu gleich noch eine ergänzung, in der ich mich schon wieder selbst korrigieren muss. ich hab ja heute vormittag behauptet, dass die unterschiede in der detailauflösung der neumannschen shogun vs. gh4 beispiele etwas mit 4:2:24:2:2 im Glossar erklärt statt 4:2:04:2:0 im Glossar erklärt zu tun haben könnten. das nehme ich wiedet zurück, nachdem ich nocheinmal einen prüfenden blick auf meinen vergleich der verschiedenen aufzeichnungsmethoden und ihrer auswirkungen geworfen habe:

zum Bild http://users.mur.at/ms/projects/banding-test/crops.png

da das aber vermutlich im browser kaum wirklich nachvollziehbar ist, hab ich die betreffenden einzelbilder und auschnitte auch als zip-file zugänglich gemacht:

http://users.mur.at/ms/projects/banding ... ompare.zip

ich habe dazu eine zeitraffer-sequenz von 100 einzelbildern aufgenommen, als RAW entwickelt, geringfügig entrauscht und daraus mit ffmpeg videodateien in 4 varianten (prores HQ und LQ, aber auch H264 100Mbps in 4:2:24:2:2 im Glossar erklärt und 4:2:0) produziert. danach habe ich jeweils frame nr. 25 verglichen.

das sollte zumindest eine vage vorstellung davon liefern, was man von den entsprechenen formaten unter günstigen bedingungen erwarten können sollte bzw. wie sehr sie sich in der detailauflösung unterscheiden.

die unterschiede sind dabei, wie zu erwarten, kaum nennenswert. auffällig ist nur, wie schlecht sich prores LQ im vergleich zu den anderen ausnimmt.

leider hab ich bei den testaufnahmen vergessen, von 4:3 auf 16:9 zu wechseln, und beim erzeugen der zeitraffer-videos in der kamera wird offenbar nocheinmal skaliert. ein vernünftige direkte gegenüberstellung mit videosequenzen, wie sie die kamera selbst liefert, war mir daher leider nicht möglich.

Dass die GH4 auch raw ausgeben wird ist bisher von Panasonic noch nicht endgültig bestägigt. Dieser Satz hier erscheint mit dem Wörtchen "may" vielleicht doch etwas wage:

keine sorge, ich erwarte mir von denen keine großen überraschungen mehr für dieses modell. all die entsprechenden trügerischen hoffnungen, die mit jedem firmware-update aufs neue ausbrechen, halte ich für ziemlich entbehrlich. das einzige, was man diesen mitteilungen entnehmen kann, ist die simple tatsache, dass technisch durchaus einiges mehr möglich wäre; es also ausschließlich marktpolitischen entscheidungen geschuldet ist, wenn man diverse features ganz bewusst nicht zugänglich macht. wenn man das mitberücksichtigt, versteht man erst recht nicht, warum man sich weitere zusatzgeräte anschaffen soll, nur um derartige artifizielle beschränkungen krampfhaft zu umgehen. das ist gar nicht so sehr nur eine frage von trotz und knausrigkeit, vieles würde auch einfach sauberer funktionieren, wenn es dort erfolgt, wo die notwendigen daten tatsächlich noch in voller qualität zur verfügung stehen.



Antwort von Bruno Peter:

ich habe dazu eine zeitraffer-sequenz von 100 einzelbildern aufgenommen, als RAW entwickelt, geringfügig entrauscht und daraus mit ffmpeg videodateien in 4 varianten (prores HQ und LQ, aber auch H264 100Mbps in 4:2:24:2:2 im Glossar erklärt und 4:2:0) produziert. danach habe ich jeweils frame nr. 25 verglichen.

Habe mir die Testmontage mal angesehen:

Wenn ich RAW mal außer Betracht ziehe da mir die Verarbeitung zu umständlich ist, gefällt mit H264 100Mbps in 4:2:24:2:2 im Glossar erklärt am besten wenn ich nicht auf eine Selbsttäuschung reingefallen bin. Hängt vielleicht auch von der Tagesform ab...

Wie auch immer, ich verpasse ohne GH4+Shogun-Recorder bei meinem Hobby eigentlich nichts, da für mich andere Werte zählen.



Antwort von domain:

Jetzt wäre eine Anleitung noch ganz gut, worauf man achten sollte, um Unterschiede zwischen RAW (links) und 420 8-Bit erkennen zu können :-)
Nicht mal die rote Kordel blutet im rechten Bild aus.





Antwort von mash_gh4:

Wenn ich RAW mal außer Betracht ziehe da mir die Verarbeitung zu umständlich ist, gefällt mit H264 100Mbps in 4:2:24:2:2 im Glossar erklärt am besten wenn ich nicht auf eine Selbsttäuschung reingefallen bin. Hängt vielleicht auch von der Tagesform ab...

ja -- jede der varianten hat ihre vor- und nachteile. auf den RAW daten reite ich vielleicht auch nur deshalb herum, weil sie bzgl. der datenmenge nicht mehr so weit von prores hq entfert sind, gleichzeitig aber doch wieder deutlich mehr spielraum in der nachbearbeitung ermöglichen. als RW2 nehmen sie tatsächlich noch fast 3x so viel platz ein, aber in effektiv komprimierten varianten kommt man beinahe auf die ausmaße der jetztigen shogun-aufzeichnungen herunter. trotzdem spricht natürlich einiges dagegen. für eine möglichst unkomplizierten zügigen workflow mit akzeptablen einschränkungen ist prores sicher auch eine feine lösung.

Wie auch immer, ich verpasse ohne GH4+Shogun-Recorder bei meinem Hobby eigentlich nichts, da für mich andere Werte zählen.

genau! im grunde sehe ich das ganz ähnlich. :)

wobei ich natürlich trotzdem hoffe, das manche dieser aufzeichnungsqualitäten schon in den unmittelbaren nachfolgemodellen aktueller kameras von haus aus enthalten sein dürften.

Jetzt wäre eine Anleitung noch ganz gut, worauf man achten sollte, um Unterschiede zwischen RAW (links) und 420 8-Bit erkennen zu können :-)
Nicht mal die rote Kordel blutet im rechten Bild aus.

nachdem du im pixel-tetris so zielsicher das selbe detail wie ich zum vergleich herausgepickt hast, brauche ich dir in dieser hinsicht ganz bestimmt nichts zu erzählen. :)

im gegenteil -- so etwas lässt mich immer ganz nervös werden und daran zweifeln, ob sich nicht doch irgendwo wieder ein fehler in meinem vergleichsablauf eingeschlichen hat? ich bin ja leider nicht nur im schriftlichen umgang eine nahezu unüberbietbar schlampige und zweifelhafte erscheinung... ;)

nachtrag:
nur um zu zeigen, dass wenigstens du nicht geschummelt hast: :)

zum Bild http://users.mur.at/ms/projects/banding ... es0000.png



Antwort von domain:

Eine sehr schöne Gegenüberstellung hast du da produziert, erinnert fast an französischen Impressionismus.
Wenn ich das richtig verstanden habe, hast du alle "minderwertigeren" Bilder aus RAW 444 abgeleitet. Nachdem die Unterschiede zwar zu sehen, aber derart minimal sind, lässt das den Schluss zu, dass der jeweilige CodecCodec im Glossar erklärt dabei eigentlich die geringste Rolle spielt.
Umgekehrt geschlossen müssen div. Mankos bei Originalaufzeichnungen in den div. Kameras schon vor der Codierung passiert sein.
Insofern ist der Shogun natürlich super, er dokumentiert die Kamera-Fehler noch deutlich präziser :-)



Antwort von wolfgang:

Leute, nichts gegen diesen "Impressionistischen" Vergleich - der ist schon gut. Allerdings gehts nicht (nur) um das - sondern auch um die Frage wie es mit den späteren Bearbeitungsreserven aussieht. Die sind bei raw sicher groß, keine Frage. Sie sind bei ProResProRes im Glossar erklärt kleiner, und bei H.264 noch viel viel kleiner.

Und der Vergleich zeigt natürlich nicht, um wieviel Rauschen man mehr ins System bekommt, wenn man eben die typischern Korrekturen macht. Trotzdem ist der Vergleich gut um zu sehen, dass die Ausgangspunkte nicht so schlecht sind. Umgekehrt argumentiert, für H.264 ist der Ausgangspunkt auch gut verglichen mit ProRes; oder Prores ist gut verglichen mit raw.

Und dass man diese Dinge halt nicht für das reine Hobby braucht, ist auch klar. Da verstehe ich voll und ganz die Aussage von Bruno mit den "anderen Werten". Aber umgekehrt müssen andere Werte ja nicht vergessen sein, nur weil man mit höherwertigeren Codecs oder raw arbeiten will?



Antwort von domain:

Das ist doch völlig klar, brauchst nicht andauernd zu wiederholen, solch uneinsichtige Deppen sind wir ja schließlich auch wieder nicht.
Es geht jedoch darum, dass uns div. Märchenonkel was demonstrieren wollen, was nicht der ganzen Wahrheit entspricht.



Antwort von wolfgang:

Von uneinsichtigen Deppen hast du gesprochen, nicht ich.

Und der Punkt, dass hier in diesen Bildern nicht auf Korrekturen sondern nur auf das Potential von Codecs hin analysisiert wird, das ist schon ein relevanter. Wobei ich diese Initiative gut finde.

Wem immer du mit Märchenonkeln meinst... ich finde diese Art der Titulierung ist auch nicht sonderlich hilfreich.



Antwort von domain:

Du hast ja recht. Ich litt schon immer unter dem Manko, Aufnahmen prinzipiell falsch zu belichten mit völlig daneben gegangenem Weißabgleich.
Dann noch ein deftiger Teal-Orange-Effekt auf das Hochzeitsvideo in der Nachbearbeitung und aus wars, also so geht es halt leider nicht, da muss ich dir zustimmen.
Da braucht man schon 12 Stops und RAW 444, das habe ich inzwischen auch eingesehen.



Antwort von wolfgang:

Ach ja... na wenn du neuerdings sogar Hochzeitsvideos machst, dann wirds ohne raw definitiv nicht gehen.



Antwort von klusterdegenerierung:

Seit ihr wirklich immer noch bei der Beweisaufnahme Shogun gegen Czech und zusätzlich jetzt noch Wolfgang gegen den rest von Slashcam? :-)

Ich dachte ihr werd schon beim filmen, mit oder ohne Shogun?



Antwort von wolfgang:

Ich bin gegen niemanden, und schon gar nicht gegen einen Rest. :)

Wenn man weiß wie man die Files verarbeitet, macht der Shogun durchaus Spaß. Und für den Moment habe ich da mal meinen workflow gefunden - und das ist gut so.



Antwort von klusterdegenerierung:

Hallo Wolfgang, hab schon die faxen dicke!
Da wollte ich eben den Screen eines 1800€ Recorders putzen, natürlich mit einem weichen Microfasertuch!

Und danach hatte ich keinen 4K Recorder mehr sondern einen 4l Recorder!!
Beim putzen ist doch tatsächlich das halbe K flöten gegangen!
Ich kann es nicht fassen!!



Antwort von Bruno Peter:

Verlange 1000 Euro zurück!



Antwort von domain:

Weiter polieren, bis auch das 4I verschwunden ist.
Mikrofasertücher können das aber nur schaffen, wenn sie vorher schon mehrmals benützt wurden. Die Mikrofasern halten nämlich gut feinstes "Schleifmaterial" fest.
Verschwindet allerdings nach einer Wäsche in der Waschmaschine.
Also für heikle Sachen immer nur frisch gewaschene Mikrofasertücher vewenden, die sind dann völlig harmlos.



Antwort von ruessel:

Denkt an den HDMIHDMI im Glossar erklärt Ausgang, der ist unbearbeitet. Kameras intern haben noch eine weitere Verarbeitungsstufe bevor sie das Signal aufzeichnen. Deshalb kann ein internes Signal sogar manchmal besser ausschauen, als eines mit großen CodecCodec im Glossar erklärt extern. Alleine schon das Entrauschen kann sich stark auswirken.



Antwort von domain:

Diese weiteren vorgelagerten Verarbeitungsstufen in der Kamera selbst können aber offensichtlich auch zu Ergebnissen führen, wie ich sie am Bahnsteigdach mit der HX20V demonstriert habe.
Anderseits habe ich gezeigt, dass zumindest bei synthetisch erzeugten Graukeilen in Photoshop auch bei 8Bit kein Banding größer als mit Pixelbreite entstehen kann.
Da soll sich noch jemand auskennen :-)



Antwort von motiongroup:

Weiter polieren, bis auch das 4I verschwunden ist.
Mikrofasertücher können das aber nur schaffen, wenn sie vorher schon mehrmals benützt wurden. Die Mikrofasern halten nämlich gut feinstes "Schleifmaterial" fest.
Verschwindet allerdings nach einer Wäsche in der Waschmaschine.
Also für heikle Sachen immer nur frisch gewaschene Mikrofasertücher vewenden, die sind dann völlig harmlos.

True Domain, in der Beschreibung zur Pflege sollte es auch drinnen stehen..

selbst wenn das mf Tuch 1000x gewaschen wird ist's ein Killer für die Displayscheiben und sogar für die menschliche Haut..



Antwort von domain:

So krass ist auch wieder nicht.
Verwende schon seit Jahren frisch gewaschene und trockene Mikrofasertücher zum Abledern des Boxsters. Sieht nach den permanenten Heißwachsreinigungen eher so aus, als wenn er mit Swizöl behandelt worden wäre, Superglanz total, keine millionenfachen feinsten Mikrokratzer auf dem Lack erkennbar.



Antwort von wolfgang:


Da wollte ich eben den Screen eines 1800€ Recorders putzen, natürlich mit einem weichen Microfasertuch!

Und danach hatte ich keinen 4K Recorder mehr sondern einen 4l Recorder!!
Beim putzen ist doch tatsächlich das halbe K flöten gegangen!
Ich kann es nicht fassen!!

Es gab ja schon einige Beschwerden über die Verarbeitungsgüte (Plastik, nicht mehr das Metallgehäuse von den früheren Atomos Produkten etc). Aber das ist neu.

Ich werde mein Gerät gleich mit Schmiergelpapier vom 4K befreien - dann war ich es wenigstens selbst! :)



Antwort von klusterdegenerierung:

Weiter polieren, bis auch das 4I verschwunden ist.
Mikrofasertücher können das aber nur schaffen, wenn sie vorher schon mehrmals benützt wurden. Die Mikrofasern halten nämlich gut feinstes "Schleifmaterial" fest.
Verschwindet allerdings nach einer Wäsche in der Waschmaschine.
Also für heikle Sachen immer nur frisch gewaschene Mikrofasertücher vewenden, die sind dann völlig harmlos.

Das Ding war so oft gewaschen das es schon die Farbe verändert hat!



Antwort von klusterdegenerierung:

Mit Brillenputztüchern geht es gut und verschiebt wenigstens nicht nur das Fett! :)

Habs jetzt anderum drauf gemacht, jetzt habe ich statt 4K 4 Delta :-))



Antwort von klusterdegenerierung:

Ach im übrigen freue ich mich ja schon nicht mehr so über die Avid aktivierung, denn wie es ja im Manual steht ist nur der 220 CodecCodec im Glossar erklärt mit 10 BitBit im Glossar erklärt und die anderen nicht!

Was ein Käse, da kann ich ja Größentechnisch wahrscheinlich gleich beim Prores bleiben!

Und wieso überhaupt welche mit 8Bit, ist das nicht voll beknackt?



Antwort von VideoUndFotoFan:

Hattet ihr auch schon mal so ein Problem mit euren Shogun-UHD-23,976p-10bit-4:2:2-rund300Mbit/s.MOVs ?

(Hinweis: Das Bild ist verkleinert und hat somit nicht die volle UHD-Auflösung, was aber für die Fehlerdarstellung keine Rolle spielt).

Könnte das ein Kodierungsfehler des Shogun sein ?

(Es betrifft zwei Einzelbilder innerhalb eines Clips - eines davon ist das hier gepostete).



Antwort von klusterdegenerierung:

SSD oder HDD?
Gibt es glaube ich diverse Gründe für, aber der Hauptgrund ist bestimmt skipping durch Festplattenerschütterung, mäsige Formatierung, mangelhafte SSD Firmware und gewisse SSDs die nicht so geeignet sind oder einen weg haben!

Ich hatte es auch schon bei einer SSD, bei mir war es eine alte 60er Vertex, die waren ja bekannt dafür das die schon halb Tod sind wenn man sie das erstemal auspackt!

Ich gehe nicht davon aus, das dies ein generelles CodecCodec im Glossar erklärt oder Shogun Problem ist.
Den gleichen effekt hatte ich auch mal mit einer nagelneuen Transend CF in meiner 5DII.



Antwort von VideoUndFotoFan:

Interessant !



Antwort von wolfgang:

Nein das erklärt die Sache leider nicht. Dieser Clip wurde auf SSD aufgezeichnet.



Antwort von klusterdegenerierung:

Nein das erklärt die Sache leider nicht. Dieser Clip wurde auf SSD aufgezeichnet.

1. Wo her weißt Du das es eine SSD war?
2. Ich habe doch auch über Probleme mit SSD geschrieben, wieso argumentierst Du dann das es nicht sein kann, da es eine SSD war?



Antwort von wolfgang:

Nein das erklärt die Sache leider nicht. Dieser Clip wurde auf SSD aufgezeichnet.

1. Wo her weißt Du das es eine SSD war?
2. Ich habe doch auch über Probleme mit SSD geschrieben, wieso argumentierst Du dann das es nicht sein kann, da es eine SSD war?

Ad 1: weil ich diesen Clip persönlich aufgzeichnet habe.

Ad 2: nun ich bezog mich primär auf die von dir genannte Festplattenerschütterung. Genauer formuliert - Festplattenerschütterung können wir somit ausschließen.

Ob die SSD sonst ein Problem hat - tja, bezweifle ich eigentlich. Die sind brandneu. Aber ok - was weiß man.



Antwort von mash_gh4:

siehst im s.m.a.r.t fehlerprotokoll auf der betreffenden platte einen hinweis?



Antwort von wolfgang:

Weiß ich nicht.

Zu Bildfehlern, die im Videotreffpunkt von Vidfan gefunden worden sind: Es gibt dazu inzwischen einen umfassenderen Thread im Atomos Forum

http://forum.atomos.com/showthread.php? ... K-on-Shogu

wonach Bildfehler vor allem bei der A7s und dem Shogun gefunden werden. Allerdings ist das inzwischen auch für die GH4 mit dem Shogun von Usern bestätigt. Scheint gerne auf Sandisk SSDs aufzutreten (auch ich nutze Sandisk Ultra II).

Tja, hier ist noch was zu tun für Atomos.



Antwort von klusterdegenerierung:

Komm Wolfgang, lass uns dat Dingen wieder abgeben und für die Knete ne schöne Fotoreise mit unseren Panas machen! :-)))



Antwort von wolfgang:

Ich muss gestehen, der Gedanke kam mir auch schon!! ;)



Antwort von domain:

Jemand hat in dem US-Forum auch geschrieben:

"Although I've gotten reasonable results from the GH4 in Resolve, the image falls apart pretty fast if I make moderate moves in the shadows, which can get frustrating."

Genau diese Erfahrung entspricht ja der auffälligsten Schwäche einer 8-Bitcodierung, die mir auch schon oft zu schaffen machte. Würde mich nicht wundern, wenn die GH4 zwar schon in 10 BitBit im Glossar erklärt aufzeichnen (lassen) kann, aber zwei davon nur aus Nullen bestehen, wie es WoWu ja schon öfters angedeutet hat.



Antwort von klusterdegenerierung:

Das glaube ich eher nicht und das hat auch ganz viel mit den Profileinstellungen zu tun.
Manche meinen ja das sie sich einen riesen Gefallen tun wenn sie das Profile so flat wie nur was drehen inkl. Contrast, was aber oft eher in die Hose geht.

Ich habe da bis jetzt sehr gute erfahrungen gemacht, bis jetzt läuft es auch gerade in den Schatten sehr gut.

Manchmal gibt es aber auch so Kanditaten die meinen, sie könnten jetzt die Tiefenregler drehen wie an der Partylichtorgel und wundern sich das es in die hose geht!

Ich habe momentan eher etwas Kopfschmerzen mit dem Monitor, denn diesen Hype, das er jach ach so toll ist und so gut zum fukusieren sei, kann ich bislang nicht so nachvollziehen!

Vorallendingen ist er nicht gerade, wie der der Gh4, sehr Kontraststark, da hilft die Helligkeit auch nicht weiter!



Antwort von domain:

Ich glaube es eigentlich auch nicht, jedoch scheinen mir die Differenzen zwischen deinen 10 BitBit im Glossar erklärt und 8Bit Bildern eigenartig gering zu sein. Könnten sie vielleicht auf den doch ziemlich unterschiedlich hohen Datenraten beruhen?



Antwort von klusterdegenerierung:

Ich glaube es eigentlich auch nicht, jedoch scheinen mir die Differenzen zwischen deinen 10 BitBit im Glossar erklärt und 8Bit Bildern eigenartig gering zu sein. Könnten sie vielleicht auf den doch ziemlich unterschiedlich hohen Datenraten beruhen?

Wie war das noch, hattest Du einen 10Bit Monitor damit Du den Unterschied überhaupt wahrnehmen kannst?



Antwort von mash_gh4:

Wie war das noch, hattest Du einen 10Bit Monitor damit Du den Unterschied überhaupt wahrnehmen kannst?

geh -- die unterschiede in dunklen bereichen , sieht man doch auch auf einem 8bit monitor, wenn man ihn nur hell genug aufdreht! ;)

(sorry, für den sarkastischen unterton)



Antwort von klusterdegenerierung:

Na dann können Wolfgang und ich ja doch unsere Reise antreten! :-)
Vielleicht zum "Wolfgang See" oder nach "Graz" ;-)



Antwort von CameraRick:

Habt ihr das Material eigentlich auch mal angefasst und den Rolloff betrachtet, oder redet man wirklich nur davon dass sie "gleich aussehen", wenn man sie nackt nebeneinander stellt?



Antwort von klusterdegenerierung:

Jaja das ist ja das, wo es viele hier mit schwer haben!
Eigentlich müßte man das Material mit den Regler von Davinci zeigen, damit man mal weiß was geht.

Out of the Shogun/Box sehen die eh fast gleich aus!
Jpg & Raw sehen ja meistens so aus dere Cam auch ziemlich gleich aus, egal wieviel D-Umfang die Cam hat.

Also Dynamik, nicht Körpchengröße! ;-)



Antwort von wolfgang:

Man wird den Unterschied auch auf einem 8bit Monitor sehen. Weil das 10bit Material einfach mehr Korrekturreserven hat. Habe mir gerade fehlerhaftes Material genommen und mit den Korrekturen in Veas 32bit floating point Projekten ein wenig gespielt. Und auch ProResProRes im Glossar erklärt wird offenbar auch als 10bit dekodiert, da gabs Verwirrungen. Man merkt die höheren Reserven schon. Aber was man damit machen kann ist halt auch ein Lernprozess.



Antwort von klusterdegenerierung:

Oh, doch kein Urlaub, sorry ;-)



Antwort von mash_gh4:

Habt ihr das Material eigentlich auch mal angefasst und den Rolloff betrachtet, oder redet man wirklich nur davon dass sie "gleich aussehen", wenn man sie nackt nebeneinander stellt?

zum Bild http://users.mur.at/ms/projects/banding ... efault.png

die entsprechende übertragungskurve ist bei gott nicht ideal, aber es gibt deutlich schlimmeres...

jedenfalls dürfte es in diesem punkt keinen unterschied zwischen der internen 8-bit und externen 10-bit aufzeichnung geben. das passiert schon einen schritt früher in der internen verarbeitung der kamera.



Antwort von CameraRick:

Es kommt halt auch ein wenig drauf an, wie man es verbiegt klar. Wenn man etwas aggressiver wird ist schnell ersichtlich wo bei 10bit der Hammer hängt, selbstverständlich auch wenn man die Daten vroher herunter skaliert.

Kann jetzt jeder mit sich selber ausmachen wie wichtig das einem ist, aber das Mehr an Information macht sich eben auch in diversen Bereichen gerne schnell bemerkbar.
Wenn man jetzt nur schneidet und dabei bleibt sollte man natürlich in 8bit bleiben. Wenn man sein Material mit Filmconvert und Konsorten vergewaltigen will vielleicht auch. Wenn man halt ein paar Schritte weiter geht, ists schon nützlich mit dem besseren Material; zahlt sich dann quasi sogar von selber.



Antwort von domain:

Ich frage mich nur, was denn das eigentlich für gigantische Veränderungen an der Originalfootage sein sollten, wenn sie letzten Endes doch nur in 8bit ausgespielt wird, was uns bisher übrigens nie gestört hat. Oder geht es um die Rettung von verhunzten Aufnahmen?
Eines geht bei 8bit ohne Log-Kurven aber sicher nicht, nämlich großartige Veränderungen in den Schatten. Hier spielt der Trick eine Rolle, dass die Schatten automatisch in einen ziemlich hohen Bitbereich verschoben werden. 15 reicht da nicht mehr, muss schon eher 25 sein.
Im Zusammenhang damit, dass sowieso ein beliebig hoher Dynamikumfang in den Lichtern locker in 8 BitBit im Glossar erklärt verpackt werden kann, stellen sich natürlich einige berechtigten Fragen, speziell wenn man sich die Canon Logkurven ansieht.
Alle bisherigen Diskussionen und unzählige Postings, wo auch noch WoWu mitmischte bringen keine Erhellung.
So richtig eindeutige Beweise für die offensichtliche Überlegenheit von 10bit gibt es m.E. also bis heute nicht. Eigentlich schade, denn davon hätte ich mir schon Welten von Unterschied erwartet und erhofft.
Blieb aber bei ziemlich schwachen Meldungen bisher.



Antwort von wolfgang:

Ich frage mich nur, was denn das eigentlich für gigantische Veränderungen an der Originalfootage sein sollten, wenn sie letzten Endes doch nur in 8bit ausgespielt wird, was uns bisher übrigens nie gestört hat. Oder geht es um die Rettung von verhunzten Aufnahmen?

Doch Helmut, denn einen Teil der Antwort auf diese Frage gibts du dir eigentlich sogar im letzten Satz. Aber nur einen Teil. Wenn du Material "korrigieren" oder besser allgemein stark verändern willst, und da zählt dann auch jede Art von stärkerem Grading dazu, dann bringst du bei diesen Operationen bei 8bit stärkeres Rauschen ins Material ein. Und dieser NoiseNoise im Glossar erklärt ist es, den man vermeiden will.

Das gilt hatl für alle erforderlichen Helligkeits- und Farbkorrekturen die man so haben will.

Der Trick an der ganzen Sache ist eigentlich ein einfacher - und das ist für raw so, das ist für dich hochwertigen Codecs als ProResProRes im Glossar erklärt oder DNxHDDNxHD im Glossar erklärt oder XAVC so: man arbeitet höherwertig in 10 oder 12 bit. Dann graded man die Sache so wie man sie haben will - und vermeidet eben dabei weitgehend das Rauschen. Und erst dann spielt man zu 8bit aus - und hat dann auch das 8bit Material entsprechend rauschfrei.

Raw hat hier definitiv die besten Reserven, aber auch ProResProRes im Glossar erklärt und DNxHDDNxHD im Glossar erklärt (und in Zukunft wohl DNxHR) sind hier nicht schlecht. Klar will der Colorist Raw haben wenn er sich was wünschen darf - aber das ist halt auch mehr Aufwand und teurer (oder zumindets wurde das so in der Vergangenheit gesehen).

Das sind halt für mich die Überlegungen auf den Shogun in Kombination mit der GH4 zu gehen. Auch wenn wir dabei einige Hürden antreffen.... aber so ist das Leben.



Antwort von domain:

Ja ist mir alles klar und kann ich unterschreiben. Früher gabs ja Umkehrfilm, wo man von vorneherein ziemlich genau arbeiten musste und anderseits den Negativ-Positiv-Prozess, wo doch noch einiges möglich war.
Die Frage ist nur, welchen persönlichen Aufwand man für die in meinen Augen relativ geringen Fortschritte eingehen möchte.
Selbst als Amateur-Filmemacher und Cutter ist man fachlich ja so vorbelastet, sind die Sinne derart geschärft, dass man unvoreingenommen und nichtanalytisch gar keinen Film mehr ansehen kann, speziell die eigenen nicht mehr. Der Inhalt ist dann fast weniger wichtig als die formalen Elemente.
Verstehe aber, dass es einen besonderen Reiz ausmacht, sich als Early-Adopter in Bereiche zu wagen, die noch eine Herausforderung darstellen.
Der Weg ist das Ziel und der Weg verspricht wenigstens vorübergehend wieder Spannung und Tüftlerei. Man denke nur an die bestens dokumentierte LUT-Entwicklung von Ruessel.
Ich muss mir auch wieder einmal was Neues suchen, wo ich ziemlich daneben stehe. Farben, Pinsel und Leinwand stehen schon länger herum, einen Airbrush habe ich erst vor einigen Monaten erworben.



Antwort von wolfgang:

Ja ist mir alles klar und kann ich unterschreiben.

Gut, dann sind wir uns ja einig wo der Nutzen dieser neuen Systeme grundsätzlich liegt.

Das hier:
Die Frage ist nur, welchen persönlichen Aufwand man für die in meinen Augen relativ geringen Fortschritte eingehen möchte.

ist dann die logische und auch absolut legitime Frage - wobei man noch über die Frage obs wirklich so ein geringer Fortschritt ist, lange diskutieren kann. Wenn ich mir ansehe was ich schon alleine mit der GH4 machen kann, wie enorm hier (auch nur für HD) der Qualitätszuwachs ist, dann ist das schon beachtlich. Auch mit dem internen UHD-Aufzeichnungen der GH4 fällt das auf. Wenn dann noch die interessanten Fähigkeiten des Shoguns dazu kommen, dann betritt man mit dieser Gerätekombination und 10bit 422 Material tatsächlich eine professionellere Welt. Das ist für das, was man für dieses Equipment ausgibt, zumindest in meinen Augen ein beachtlicher Fortschritt.

Vielleicht sollte man die Frage auch mal so formulieren: damit man eine GH4 (oder A7s oder was auch immer) mit dem Shogun betreiben kann, brauchts zumindest das Stativ oder ein Schulterrig. Passt das für alle Situation, und will ich mir in jeder Situation für jeden Filmzweck das antun? Dann lautet auch meine Antwort: definitiv will ich mir das nicht immer antun. Wenn ich etwa im Wattmeer herumlaufe und meinen privaten Urlaubsfilm drehe, geht das auch gut nur mit der GH4 alleine. Für das Umfeld des Wattmeers ist halt so ein Schulterrig weniger gut geeignet. Aber für Auftragsarbeiten macht die Kombination hingegen sehr wohl Sinn.

Selbst als Amateur-Filmemacher und Cutter ist man fachlich ja so vorbelastet, sind die Sinne derart geschärft, dass man unvoreingenommen und nichtanalytisch gar keinen Film mehr ansehen kann, speziell die eigenen nicht mehr. Der Inhalt ist dann fast weniger wichtig als die formalen Elemente.

Das ist leider nur zu wahr und verhindert auch bei mir oft den Filmgenuß. Besonders bei s3Ds3D im Glossar erklärt schaue ich mir das Material auch gerne ohne Brillen an - um das Material auch auf Fehler abzuchecken. Tja vermutlich eine Art Berufskrankheit. :)

Verstehe aber, dass es einen besonderen Reiz ausmacht, sich als Early-Adopter in Bereiche zu wagen, die noch eine Herausforderung darstellen.

Sicher, das ist auch wohl oft ein Argument. Aber als du dir vor Jahren recht früh die FX1 gekauft hast, warst du dem ja auch nicht abgeneigt. Ist ja auch alles ok - Geld kann man nicht mitnehmen, das letzte Hemd hat keine Taschen. Wie hat es kürzlich ein lieber Freund formuliert: solange ich es mir leisten kann bin ich daher lieber bei den Early-Adopters mit dabei. Muss und wird eh jeder für sich selbst einschätzen und entscheiden müssen. Denn fürs Filmen ists tatsächlich auch eher kontraproduktiv, schließlich dauert es seine Zeit bis man sein Equipment In- und Auswendig kennt.



Antwort von domain:

Porsche for ever.
So verschieden können die eigenen Vorlieben sein. Habe schon 55T beisammnen und keinen Euro für Video mehr übrig. Speziell die sequenzielle Lenkradschaltung über Tasten mit Doppelkupplungsgetriebe hat es mir angetan ;-)



Antwort von klusterdegenerierung:

Hallo Wolfgang,
habe mir das Spyder LancUSB Kabel bestellt, kostet nen pfuffi!
Vielleicht bekomme ich es noch die Woche, dann berichte ich mal ;-)



Antwort von wolfgang:

Mein Porsche ist ein BMW X3 und war teuer genug. :)

Spyder: ja das Kabel funktioniert ja nach Postings hier. Leider weiß ich nicht ob auch das Spyer 3 damit geht (das habe ich hier herumstehen).



Antwort von klusterdegenerierung:

Dann scanne ich es Dir ein und schicke es Dir als Anhang, dann kannst Du es mal ausprobieren! ;-))



Antwort von wolfgang:

Der war gut.



Antwort von klusterdegenerierung:

Hallo Wolfgang,
ich habe uns mal ein kleines Testvideo erstellt! :-)

Ohne jetzt irgendwem Gerecht werden zu wollen und nicht als Referenz.
Nach dem ich gerade mal etwas Zeit und Ruhe hatte, habe ich mal kurz die möglichkeiten ausprobiert.

Wollte wissen wieviel Raum ich in einem teilweise recht dunkelen footage so habe, weil ich mal vor einiger Zeit einen Test mit Standardeinstellungen auf 8Bit vorgenommen habe und dies, schon nach kleinen veränderungen extrem rauschig wurde, selbst bei niedrigem Iso Wert.

Ich habe jetzt aber nur einen 10Bit Test gemacht, weil ich gleichzeitig 8Bit nicht konnte und ich weiß wie sich mein 8Bit Material so verhält.

Hier ein paar Infos zum Geschehen:

GH4
640 ISO mit Highiso Profil
4K 30p
Shogun ProRes 422ProRes 422 im Glossar erklärt 500Mbit

Geladen in PPCC als 1080P
Via Direktlink bearbeitet in Speedgrade (max Einstellungen für min 10Bit Material)
Gerendert in PPCC als H264 25Mbit als 8Bit 420

Ich finde das Ergebnis sehr befriedigend, da das Rauschen nicht verstärkt oder Farbig wurde (klar kann man es jetzt besser sehen) und der doch ziemlich abgesumpfte Ofen wieder recht gut zu sehen ist.

Ich habe mich jetzt nicht lange mit der korrektur auseinandergestzt, das wollte ich extra nicht, sicher wäre es noch hübscher gegangen ;-)

Vom feeling, beim korrigieren, hat es mit stark an die Raw Möglichkeiten der Pocket erinnert!

Was meinst Du denn so und klappt es mittlerweile in Vegas?

http://www.filedropper.com/test_25



Antwort von mash_gh4:


Ich finde das Ergebnis sehr befriedigend, da das Rauschen nicht verstärkt oder Farbig wurde (klar kann man es jetzt besser sehen) und der doch ziemlich abgesumpfte Ofen wieder recht gut zu sehen ist.

im unteren teil der ofens gibt's schon einen bereich, der alle farben spielt.;)

auffällig ist es besonders deshalb, weil dort eine quantisierungsgrenze durch das rauschen ständig wandert bzw. ein ausgesprochen unruhiges bild erzeugt.

ich denke, dass dieses problem weder in 8bit noch in 10bit richtig gut hinzubekommen ist. vergleichen sollte man es besser mit einer korrekt belichteten 8bit aufnahme, auch wenn dafür ein höherer ISO-wert nötig sein sollte.



Antwort von klusterdegenerierung:

Ja was für ein Glück das es keine Kamera für 50.000€ ist!
Und wenn ich eine richtige Belichtung mache, brauche ich es nicht mehr hoch zu ziehen.

Wir sprechen hier nicht von einem Hobby alles Unter zu belichten um möglichst viel Murx rein zu zaubern.

Ich glaube, Dir ist überhaupt nicht im klaren wie viel ich hier gepuscht habe und wie sonst derart gepuschtes Material generell aussieht!! :-[

Ich will Dich ja nicht belehren, aber vielleicht solltest Du nicht immer so eine Welle machen und daran denken das es sich um eine 1500€ Cam handelt und das ich nicht Erbsen zählen will und es nicht als Referenz galt und ich nicht irgendwelche Cameraschwächen auf zeigen wollte.

Irgendwie klappt das hier mit dem lesen echt nicht so gut.
Wenn einer mit Dir eine Testfahrt bei 300 im Ferrari macht und er Dich fragt UND? Sagst Du ihm dann auch: Toll aber Kack Farbe?

Hier Standardeinstellungen bei 640 Iso 8Bit 420, so aus der Cam und nur ein bisschen an Kontrast und Gain gedreht!!

http://www.filedropper.com/gh4noisetestpreandafter



Antwort von klusterdegenerierung:


im unteren teil der ofens gibt's schon einen bereich, der alle farben spielt.;)

auffällig ist es besonders deshalb, weil dort eine quantisierungsgrenze durch das rauschen ständig wandert bzw. ein ausgesprochen unruhiges bild erzeugt.

Ich habe mir das noch mal genauer angesehen und das stimmt nicht so recht, denn der untere Teil der Tür war deutlich dunkeler und da kam die korrektur einfach an ihre Grenze und es ist dort lediglich eine abstufung zu sehen, dessen Farbe man aber mehr erraten muß als das man sie sieht.

Zusätzlich kommt hinzu das es nicht als 10Bit 422 ausgegeben wurde und die kompression 20x stärker ist als das Original.

Hätte ich an der Stelle etwas weniger die Tiefen angehoben, wäre es garnicht mehr Sichtbar!!



Antwort von mash_gh4:

Wenn einer mit Dir eine Testfahrt bei 300 im Ferrari macht und er Dich fragt UND? Sagst Du ihm dann auch: Toll aber Kack Farbe?

aber sicher -- ...spätestens, wenn mir nach der ersten, grenzwertig chaufierten kurve so richtig übel wird und ich trotzdem höflich bleiben möchte! :)

allerdings kann ich beim motorisierten fetischismus nicht so recht mitreden. ich weiß dafür ziemlich gut, dass dem einen oder anderen zusätzlich verfügbarem zahn auch bei anderen formen der sportlichen fortbewegung eine recht entscheidende rolle zukommen kann. trotzdem muss man dann immer noch wissen, wie man seine kräfte am berg richtig einteilt, sinnvoll schaltet und seine flossen rechtzeitig wieder aus den pedalen bekommt, bevor man beim cyclecrossen im winterlichen gatsch die pysikalischen voraussetzungen des kreiseleffekts wieder einmal definitiv zu unterschreiten droht.

Ja was für ein Glück das es keine Kamera für 50.000€ ist!

so etwas ist doch gänzlich unabhängig vom preis des geräts zu betrachten!

es ist durchaus eindrucksvoll -- das gebe ich gerne zu -- trotzdem bewegt es sich in einem grenzbereich, denn man besser vorausschauend meiden sollte, wenn man weder sich selbst, noch sein geliebtes lustobjekt unnötig verunstallten will.



Antwort von mash_gh4:

Ich habe mir das noch mal genauer angesehen und das stimmt nicht so recht, denn der untere Teil der Tür war deutlich dunkeler und da kam die korrektur einfach an ihre Grenze und es ist dort lediglich eine abstufung zu sehen, dessen Farbe man aber mehr erraten muß als das man sie sieht.

Zusätzlich kommt hinzu das es nicht als 10Bit 422 ausgegeben wurde und die kompression 20x stärker ist als das Original.

Hätte ich an der Stelle etwas weniger die Tiefen angehoben, wäre es garnicht mehr Sichtbar!!

ja -- du hast eh recht! :)

mir ist es vermutlich auch nur ins auge gefallen, weil mir genau dieses zusammenspiel zwischen rauschen und quantisierung momentan öfter durch den kopf geht.

in richtiger proportion zueinander ist das nämlich genau das geeignete mittel, um banding zu vermeiden bzw. farbgrenzen zu dithern. an diesem konkreten beispiel sicht man aber recht gut, dass das leider in der praxis nicht immer ganz so reibungslos aufgehen muss. speziell, wenn in weiteren bearbeitungsschritten nocheinmal massive einschänkungen durch zusätzliche kompression od.ä. dazu kommen.

lauter randbedingungen, die man auch bei weniger grenzwertigen alltäglichen aufnahmen nicht immer vollständig im griff hat. zusätzliche reserven zu haben, ist also sicher gut. trotzdem verschieben sich die tatsächlichen grenzen dadurch vermutlich nicht in dem ausmaß, wie man es sich gerne wünschen würde.



Antwort von mash_gh4:

ein weiter vergleich zw. interner und externer aufnahme:



leider sind in den grading-bsp. nur irgendwelche LUTs drüber gepappt, statt mit ein bisserl feingefühl den schwarzpunkt zu setzen, trotzdem erkennt man recht gut, dass die zusätzlichen 2 bit alleine ganz offenbar in der praxis nicht genügen, um in den kritischen bereichen eine ausreichende zeichnung aus den verfügbaren daten herauszukitzeln...



Antwort von klusterdegenerierung:

Na ich glaube dann verkaufe ich lieber die GH4 und den Shogun.



Antwort von wolfgang:

trotzdem erkennt man recht gut, dass die zusätzlichen 2 bit alleine ganz offenbar in der praxis nicht genügen, um in den kritischen bereichen eine ausreichende zeichnung aus den verfügbaren daten herauszukitzeln...

Was Paul hier macht ist eher dass er native Clips vergleich - was ja auch ok ist. Aber eigentlich ist es das. Sonderlich exzessiv ist das Grading nicht.

Die andere Frage ist, ob man über Portale wie youtube oder vimeo eigentlich die Feinheiten überhaupt sehen kann, die man beim Graden in Form von zusätzlichen NoiseNoise im Glossar erklärt eben einbringt oder auch nicht einbringt. Bin mir da nicht so sicher.

Und die andere Möglchkeit wäre, dass der verbaute H.264 codec halt so gut ist dass man eigentlich ProRes 422ProRes 422 im Glossar erklärt 10bit gar nicht mehr braucht. Na dann ist die Frage ob man auch raw noch braucht... ;)



Antwort von srone:

panasonic scheint ein gutes händchen zu haben was den h264 codec angeht, schon bei der gh2 konnte sich selbiger qualitativ sehr gut gegen diverse "treibholz-erweiterungen" behaupten. ;-)

lg

srone



Antwort von klusterdegenerierung:

Ich glaube es ist garnicht so leicht, nach dem ganzen GH4 bashing ein wirklich tolles Video von der GH4 zu finden!
Zumindest habe ich jetzt für mich eins gefunden, welches mir persönlich wirklich gut gefällt.

Vielleicht gefällt es ja dem einen oder anderen auch, oder es auseinander zu pflücken? ;-)





Antwort von cantsin:

Ich glaube es ist garnicht so leicht, nach dem ganzen GH4 bashing ein wirklich tolles Video von der GH4 zu finden!

Vielleicht gefällt es ja dem einen oder anderen auch, oder es auseinander zu pflücken? ;-)
Der Macher hat drei Dinge unternommen, um schönere Bilder aus der GH4 'rauszuholen:

1) Er hat, wie er in den Vimeo-Kommentaren schreibt, das 8bit-Material kaum gegradet, sondern so aufgenommen, wie es im Endprodukt aussehen sollte. (Das sollte man bei einer Kamera wie der GH4 immer tun, es sei denn, man zeichnet extern mit 10bit auf.)

2) Er hat ca. 80% des Materials in der "golden hour" aufgenommen - sowieso die beste Methode, um jedes Material gut aussehen zu lassen. Ausserdem hat er peinlich darauf geachtet, innerhalb der Dynamik der Kamera zu belichten und ausbrennende Lichter (bis auf ganz wenige kurze Einstellungen) zu vermeiden. Dafür hat er auch Unterbelichtungen seiner Sujets in Kauf genommen (die er oft dadurch ausgleicht, dass seitlich einstrahlendes vorhandenes Licht als Konturlicht z.B. die Haare seiner Darstellerin modelliert). Durch einen relativ kühlen WeissabgleichWeissabgleich im Glossar erklärt hat er ausserdem einen gefälligen Komplementärfarbkontrast - sozusagen ein in-der-Kamera-Grading - zwischen den ins Blaue gehenden Grau- und Weisstönen und den orangenem Sonnenuntergangs-Licht hergestellt. In den Nachtaufnahmen am Ende des Videos ist der WeissabgleichWeissabgleich im Glossar erklärt deutlich nach Magenta verschoben und sorgt so auch für einen gefälligen Look direkt aus der Kamera.

3) Durch den Anamorphoten hat er das Bild auf organisch-optische Weise weicher gemacht und damit die relativ aggressive elektronische Nachschärfung der GH4 abgemildert.

Und er hat auf kreative Weise Kameraartefakte bzw. Bildfehler - sparsam verwendete anamorphische Flares (1:48, 2:26), großflächiges Lichtflackern durch Leuchtreklame in asynchroner Bildfrequenz zur Kamera (1:56) und natürlich die Gewitterblitze (1:47) - verwendet, um die Bilder stimmungsvoller zu machen.

Die Grenzen der Kamera bzw. ihres Dynamikumfangs zeigen sich bei allen Einstellungen mit Leuchtreklamen, z.B. bei 1:23.

Das Drehen des Videos muss - ungeachtet der Leichtigkeit seiner Anmutung - stellenweise recht anstrengend und komplex gewesen sein, weil er für seine Nahaufnahmen (wie z.B. 2:30) wahrscheinlich jedesmal Diopter vor den Anamorphoten schrauben musste....

Sehr kreativer Umgang mit dem Werkzeug! So sollte es sein. (Noch genialer bei diesem jungen Burschen, der mit einer gewöhnlichen - um nicht zu sagen: elenden - Canon 550D Filme wie diese macht: .)



Antwort von klusterdegenerierung:

Das stimmt!
Auch toll!

Und ps, echt Lustig, ich habe mich vertippt und meinte "ohne" nicht "oder" !:-)
Aber Dein oder gefiel mir jetzt besser als mein ohne :-)



Antwort von klusterdegenerierung:

Hallo Wolfgang,
hier wie versprochen Dein Lanc Kabel! :-)))

Hat supi geklappt mit der kalibrierung und ging ratzefatze und hat keinen Farbstich mehr!

Ach übrigens, falls Du mal kein Bock mehr auf große Files in 10Bit hast, Du kannst Ihn auch als 2. Moni benutzen, siehe Foto! ;-)




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum News-Kommentare-Forum

Antworten zu ähnlichen Fragen:
Codex Portable: Mobiler 4K-Recorder
Kurznews: Erste Atomos Shogun 4K-Recorder werden ausgeliefert
Atomos Shogun Inferno wird nun ausgeliefert - u.a. mit 4K 60p RAW-Recording
Atomos bringt kleinen Shogun - Ninja Assassin 4K-Recorder
Atomos Shogun - externer 4K Recorder unter 2.000 Euro
Neuer Atomos Flagschiff-Recorder - Shogun Inferno // NAB 2016
Atomos stellt Shogun Studio: 4K/HD, 2ch, dual 7" 3RU Rack Recorder vo
Ursa wird ausgeliefert
Samsung: 15 TB SSD wird ausgeliefert
AJA CION wird ab sofort ausgeliefert
Wird die URSA bald ausgeliefert?
Blackmagic Video Assist wird ausgeliefert
Kurznews: CAME-8000 Gimbal wird ausgeliefert
Toshiba P55T 4K-Notebook wird ausgeliefert
Kurznews: RED Dragon wird ab sofort ausgeliefert
AJA HDR Image Analyzer wird ausgeliefert
Kurznews: 4K-Camcorder JVC LS300 wird ab März ausgeliefert
Adobe Creative Cloud 2014.2 Update wird ausgeliefert
Actioncam-Gimbal GoPro Karma Grip wird ausgeliefert
MSI AMD R9 280X 6GB wird endlich ausgeliefert
Boris Continuum Complete 10 für Avid wird ausgeliefert
XP7200: Seagates schnellste SSD der Welt mit 10 GB/s wird ausgeliefert
AJA CION wird Ende Dezember für 8.995,- Dollar ausgeliefert
AJA FS-HDR Frame Synchronizer und Konverter wird ausgeliefert // IBC 2017
Atomos Shogun - Glasbruch
Broadcasting - Warum wird heute noch in Interlaced übertragen? 1080i50

















weitere Themen:
Spezialthemen


16:9
3D
4K
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Band
Bild
Bit
Blackmagic
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
ENG
EOS
Effect
Effekt
Effekte
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
HDMI
HDR
Hilfe
Import
JVC
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Layer
Licht
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom