Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Infoseite // Gedanken & Tests zu 10bit/8bit in Bezug auf GH4/Shogun



Frage von klusterdegenerierung:


Nach dem Bandingtest von Stefan Czech im Shogun Video, kam ja hier eine große Diskussion auf und bei mir als Besitzer einens Shoguns, eine große Unsicherheit in Bezug auf den Nutzen des Shoguns bzw 10bit.

Nachdem ich an meinem Pc alles mögliche versucht habe, einen angemessenen und zeigenswerten Unterschied vorweisen zu können, bin ich erstmal kläglich gescheitert und hatte mich schon gefragt, wozu ich ihn brauche wenn ich null Unterschied zwischen Shogun 10bit & GH4 8bit ausmachen kann!

Da ich an meinen alten Macs nicht schneide, bin ich erstmal nicht auf die Idee gekommen, mir das ganze mal am Mac an zu sehen!

Dann viel mir das Retina Display meines iPads ein und ich schob mir Speedgrade vom Mac aufs iPad!
Und was soll ich sagen, mir ist im wahrsten Sinne der Kitt aus der Brille gefallen, denn plötzlich wies das Material der GH4 8bit erhebliche Mängel in den Farbsäumen bei Lichtkoronas auf, die bei noch stärkerer Veränderung, im motivisch gleichem Shogun 10bit Material, garnicht vorhanden waren.

Jetzt kam mir natürlich direkt der Gedanke, an dem was WoWu mir vor kurzem bzgl. meines angeblichen 8bit Monitors (Dell sagt er wäre 10Bit) schrieb.

Natürlich hing ich dann den Dell an den Mac und auch damit konnte ich diese Unterschiede sehen, zwar nicht so extrem wie im iPad, aber sie waren da.

Nun frag ich mich natürlich, was mir das ganze sagen soll!
Ich bin mir noch nicht ganz im klaren, aber ich weiß jetzt das man sehr wohl Unterschiede sehen kann, nur unter Windows anscheinend nicht wirklich, oder bei mir nicht!

Jetzt denkt ihr bestimmt, gut dann zeig uns doch mal ein paar screenshots!
Hab ich mir auch gedacht, bloß das abgefahrene ist, das man jetzt unter Windows auch in den screenshots kaum Unterschiede sieht.

Mir ist dann aber die RGB Parade aufgefallen, in der sieht man nämlich ganz deutlich, dass das 8bit Material der Veränderung nicht gut stand hält.
Im Gegensatz zur 10bit Parade, die hingegen sauber und ohne ausfresser ist!

Natürlich kommen jetzt viele Fragen für mich auf, aber eine ist für mich zumindest geklärt! :-))

Space


Antwort von mash_gh4:

ist der monitor auch unter windows per display-port angebunden und an einer grafikkarte die 10bit ausgabe untersützen sollte?

Space


Antwort von klusterdegenerierung:

ist der monitor auch unter windows per display-port angebunden und an einer grafikkarte die 10bit ausgabe untersützen sollte? Ach guck, darüber habe ich auch noch nicht nach gedacht!
Nein sie hängt an DVI, da meine GTX580 kein Displayport hat und am Mac hing er ja auch daran.

Aber ob es das sein kann, weiß ich nicht denn in meinem 2008 MacBook und iMac, werkeln ganz bescheidene Grakas! ;-)

Ich vermute so was defuses wie, das die Windows Umgebung aus irgendwelchen Gründen nicht mit 10Bit Darstellung umgehen kann. ;-0

Space


Antwort von mash_gh4:

normalerweise bekommst die 10bit fast nur via displayport auf die schirme, obwohl es theoretisch bis zu einer bestimmten auflösung auch mit dual-link dvi funktionieren sollte. aber, wie gesagt, in der praxis ist display-port fast eine voraussetzung für die reibungslose 10bit verwendung.

auch die GTX580 ist in diesem zusammenhang nicht ganz unproblemtisch. nvidia will nämlich unbedingt die teuren quadros für solche anwendungszwecke verkaufen. unter linux gibt's hacks, um trotzdem 10bit auf den billigeren geforce consumer-karten auszugeben. auch unter windows soll es, meines wissens nach, zumindest über einzelne zugriffsarten möglich sein.

ist leider wirklich ein ziemlicher krampf. :(

Space


Antwort von klusterdegenerierung:

nvidia will nämlich unbedingt die teuren quadros für solche anwendungszwecke verkaufen. Ich hatte mal eine mittlere Quadro, das war ein Alptraum! Die Cudas konntest Du an einer Hand abzählen und die wie lahm wie ne GT210 ;-), da ist die 580er die totale Profikarte.

Space


Antwort von -paleface-:

Also ich hab auch schon von anderen gehört das sie auf den ersten Blick keinen großen Unterschied sehen würden.

Glaube ich!
ABER...der Clou ist ja immer noch die NACHBEARBEITUNG.
Nehmt doch mal was auf mit allen Formaten die es nun so gibt.
Danach gebt ihr der Sache einfach mal einen RICHTIGEN Look.

Und dann mal sehen ob man den Unterschied erkennen kann.
Da ich leider noch keinen Shogun habe, kann ich das nicht übernehmen.

Space


Antwort von klusterdegenerierung:

Also ich hab auch schon von anderen gehört das sie auf den ersten Blick keinen großen Unterschied sehen würden.

Glaube ich!
ABER...der Clou ist ja immer noch die NACHBEARBEITUNG.
Nehmt doch mal was auf mit allen Formaten die es nun so gibt.
Danach gebt ihr der Sache einfach mal einen RICHTIGEN Look.

Und dann mal sehen ob man den Unterschied erkennen kann.
Da ich leider noch keinen Shogun habe, kann ich das nicht übernehmen. Und was soll ich sagen, mir ist im wahrsten Sinne der Kitt aus der Brille gefallen, denn plötzlich wies das Material der GH4 8bit erhebliche Mängel in den Farbsäumen bei Lichtkoronas auf, die bei noch stärkerer Veränderung, im motivisch gleichem Shogun 10bit Material, garnicht vorhanden waren. Du mußt natürlich schon richtig lesen, dann würdest Du natürlich wissen, das ich das gemacht habe!

Also bei totalen Anfängern bist Du jetzt auch nicht! :-€

Space


Antwort von mash_gh4:

Ich hatte mal eine mittlere Quadro, das war ein Alptraum! Die Cudas konntest Du an einer Hand abzählen und die wie lahm wie ne GT210 ;-), da ist die 580er die totale Profikarte. du hast völlig recht! trotzdem beschränkt nvidia genau diese "professionellen" features in den treibern typischen gamer-karten ganz bewusst. :(

das betrifft 10bit unterstützung, rechnen in doppelter präzision und duchreichen der karten an virtuelle maschinen...

für die meisten geschichten gibt's irgendwelche workarounds, aber es nervt trotzdem ungemein, weil es ja eigentlich nicht so sein müsste -- die karten selbst können es ja!

Space


Antwort von klusterdegenerierung:

Ich hatte mal eine mittlere Quadro, das war ein Alptraum! Die Cudas konntest Du an einer Hand abzählen und die wie lahm wie ne GT210 ;-), da ist die 580er die totale Profikarte. du hast völlig recht! trotzdem beschränkt nvidia genau diese "professionellen" features in den typischen gamer-karten ganz bewusst. :(

das betrifft 10bit unterstützung, rechnen in doppelter präzision und duchreichen der karten an virtuelle maschinen...

für die meisten geschichten gibt's irgendwelche workarounds, aber es nervt trotzdem ungemein, weil es ja eigentlich nicht so sein müsste -- die karten selbst können es ja! Ja, zumal sogar die alten Karten untereinander die gleichen Chipsätze hatten.

Space



Space


Antwort von dienstag_01:

So ganz verstehe ich die Aufregung nicht.
In einem 10bit Workflow mit 10bit Vorschau sollte einem die geringere Farbauflösung von 8bit Material schon auffallen.
Die Frage, die sich aber doch für die (meisten) User stellt, ist, was bringt die externe 10bit Aufzeichnung für einen 8bit Workflow/Ausgabe.
Das sind doch zwei paar Schuhe.
Oder?

Space


Antwort von klusterdegenerierung:

So ganz verstehe ich die Aufregung nicht.
In einem 10bit Workflow mit 10bit Vorschau sollte einem die geringere Farbauflösung von 8bit Material schon auffallen.
Die Frage, die sich aber doch für die (meisten) User stellt, ist, was bringt die externe 10bit Aufzeichnung für einen 8bit Workflow/Ausgabe.
Das sind doch zwei paar Schuhe.
Oder? Dafür mußt Du erstmal wissen, was in diesem Workflow nicht 10bit bzw immer noch 8bit ist
Weißt Du das an jeder Stelle?

Dann schreib es mal für uns nieder, dann brauchen sich viele nicht so einen Kopf machen.

Space


Antwort von iasi:

10bit oder 8bit sind doch nur für die Bearbeitung von Bedeutung - was auf dem Monitor erscheint, ist zunächst mal unerheblich.

Wenn es eh in Richtung TV/Internet geht, ist es doch fast schon sinnvoller, man betrachtet sich das 8Bit-Ausgabeformat.

10 Bit bietet dann eben weit mehr Spielraum. Das zeigen ja auch die Bilder der RGB Parade recht gut.

Space


Antwort von klusterdegenerierung:

10bit oder 8bit sind doch nur für die Bearbeitung von Bedeutung - was auf dem Monitor erscheint, ist zunächst mal unerheblich.

Wenn es eh in Richtung TV/Internet geht, ist es doch fast schon sinnvoller, man betrachtet sich das 8Bit-Ausgabeformat.

10 Bit bietet dann eben weit mehr Spielraum. Das zeigen ja auch die Bilder der RGB Parade recht gut. Ich weiß jetzt nicht so richtig, ob Du denn realisiert hast, das diese Tatsachen keiner in Frage stellt.

Aber wenn man nicht in der Lage ist, diese beiden Materialien auseinander zu halten, weil man überhaupt keinen Unterschied sieht, ist es doch recht verwirrend und man stellt sich dann doch die Frage, wozu das ganze wenn ich es nicht sehe.

Dabei geht es mir nur um die Nachbearbeitung und wenn Du da keinen Unterschied siehst, kommen doch Fragen auf oder?

Ich spreche nicht von dem Nutzen oder der Notwendigkeit von 10bit.
Vielmehr geht es doch darum einen visuellen Unterschied ausmachen zu können um nicht eine Dunkelfahrt zu betreiben.

Hast Du denn garnicht mitbekommen, wie sich manche hier einen abgebrochen haben einen Unterschied der beiden Materialien zu zeigen?
Selbst der Czech von Atomos mußte doch auch in die Trickkiste greifen um den 10bit vs 8bit zeigen zu können.

Also nochmal, in meinem Windows 8 in allen Grading Programmen ist absolut KEIN visueller Unterschied zwischen intern 8bit & Shogun 10bit BEI HEFTIGEM graden fest zu stellen.

Erst am Mac, besondern über Retina Display ist ein Unterschied SEHR DEUTLICH wahrnehmbar.

Vielleicht kann WoWu was dazu sagen?

Space


Antwort von dienstag_01:

Dafür mußt Du erstmal wissen, was in diesem Workflow nicht 10bit bzw immer noch 8bit ist
Weißt Du das an jeder Stelle?
Darum geht es doch gar nicht.
Zwei Videos, eins 10, eins 8bit. Bearbeitung im NLE. Ausgabe in einen 8bit Codec. Beide. Sieht man Unterschiede ja oder nein.
Das wäre mal der simpelste Vergleich, ob 10bit Material in einem 8bit Workflow etwas bringt.

Space


Antwort von ruessel:

Sieht man Unterschiede ja oder nein. Nein.

Trotzdem liebe ich den 10 Bit Stream meiner Pocketkamera, damit lässt sich sehr viel mehr (in der Post) mit anfangen als mein Stream aus der Sony EX1R.

Space


Antwort von dienstag_01:

Trotzdem liebe ich den 10 Bit Stream meiner Pocketkamera, damit lässt sich sehr viel mehr (in der Post) mit anfangen als mein Stream aus der Sony EX1R. *Mehr anfangen* sollte man auch SEHEN. Oder was bedeutet das sonst ;)

Space


Antwort von ruessel:

Ich bin nicht der 10 Bit Guru, habe nur Erfahrungen mit meiner Pocket in diesem Bereich machen können.

Da ich etliche LUTs für die Pocket entwickelt habe (oder immer noch dabei bin) musste ich mich zwangsläufig in dieses Thema einarbeiten. Ich bin immer erstaunt was noch in so einem 10Bit Stream an Bildinfos verborgen sind. Ich kann ja 10 Bit nicht wirklich sehen, habe hier nur 8 Bit Bildschirme. Ich kann also aus den Überstrahlungen (weniger) oder Schatten (meist viel) herausholen, was bei der EX1R nicht mehr geht.

Ist die Ex1R richtig gut justiert und nicht mit dem Kontrastumfang überfordert schrumpft der Unterschied deutlich - die Bilder unterscheiden sich trotzdem, hat aber nix mit 8 oder 10 Bit zu tun.

Farblich habe ich versuche mit der EX1R und einen externen rekorder via SDI gemacht, mit einem fetten Signal (unkomprimiert) lässt sich natürlich auch noch eine Menge an Farben machen ohne Probleme. Aber mit 10 Bit habe ich mehr justiermöglichkeiten im Kontrastumfang - so mein Eindruck. Keine Ahnung ob das wirklich mit 8 oder 10 bit zusammenhängt.

Genauso die Diskussion von 4:2:0 und 4:2:2, das Endergebnis in einer normalen Aufnahme ist eher kaum Sichtbar - aber natürlich bei extremen Anforderungen sichtbar.

ich möchte einfach für mich behaupten, eine 8Bit Kamera kommt mir nicht mehr ins Haus...... lieber 10bit und HDTV als 8Bit und UHD.

Space


Antwort von srone:

unter normalen drehbedingungen gibt es da keinen grossen unterschied, spätestens aber, wenn man in extreme, unbeeinflussbare lichtsituationen kommt, ist man um jedes bit mehr des rohmaterials, in der post froh,
denn es lässt sich weit mehr, als bei 8bit rohmaterial korrigieren.

dadurch entsteht dann schon ein sichtbarer unterschied.

lg

srone

Space



Space


Antwort von dienstag_01:

So richtig leuchtet mir das mit dem Kontrastumfang noch nicht ein.
Aber ein sinnvoller Test ist sowieso nur mit dem Material EINER Kamera möglich, sonst gibt es zuviele Unbekannte im Workflow.

Space


Antwort von -paleface-:

Also ich hab auch schon von anderen gehört das sie auf den ersten Blick keinen großen Unterschied sehen würden.

Glaube ich!
ABER...der Clou ist ja immer noch die NACHBEARBEITUNG.
Nehmt doch mal was auf mit allen Formaten die es nun so gibt.
Danach gebt ihr der Sache einfach mal einen RICHTIGEN Look.

Und dann mal sehen ob man den Unterschied erkennen kann.
Da ich leider noch keinen Shogun habe, kann ich das nicht übernehmen. Und was soll ich sagen, mir ist im wahrsten Sinne der Kitt aus der Brille gefallen, denn plötzlich wies das Material der GH4 8bit erhebliche Mängel in den Farbsäumen bei Lichtkoronas auf, die bei noch stärkerer Veränderung, im motivisch gleichem Shogun 10bit Material, garnicht vorhanden waren. Du mußt natürlich schon richtig lesen, dann würdest Du natürlich wissen, das ich das gemacht habe!

Also bei totalen Anfängern bist Du jetzt auch nicht! :-€ Ups. Hab ich überlesen.

Wie hält sich denn das 10bit bei Nachtaufnahmen?
Also wenn du zb. eine Person, bei Nacht mit Straßenlaternen filmst.
Und merkst später "uh, Gesicht ist etwas dunkel".
Kann man das gut wieder hochziehen?

Space


Antwort von klusterdegenerierung:

Dafür mußt Du erstmal wissen, was in diesem Workflow nicht 10bit bzw immer noch 8bit ist
Weißt Du das an jeder Stelle?
Darum geht es doch gar nicht.
Zwei Videos, eins 10, eins 8bit. Bearbeitung im NLE. Ausgabe in einen 8bit Codec. Beide. Sieht man Unterschiede ja oder nein.
Das wäre mal der simpelste Vergleich, ob 10bit Material in einem 8bit Workflow etwas bringt. Rede ich aber garnicht von!

Space


Antwort von klusterdegenerierung:

Trotzdem liebe ich den 10 Bit Stream meiner Pocketkamera, damit lässt sich sehr viel mehr (in der Post) mit anfangen als mein Stream aus der Sony EX1R. *Mehr anfangen* sollte man auch SEHEN. Oder was bedeutet das sonst ;) Sorry, aber was ist mit Dir los? Darüber reden wir doch die ganze Zeit! (Kopfschütteln)
Und ich habe doch eine Möglichkeit aufgezeigt wie man den Unterschied sieht!
Nämlich unter OSX! Jetzt mußt Du mir nur noch sagen ob OSX eine 10bit Umgebung ist.

Mußt auch einfach mal lesen was ich schreibe, funktioniert bei manchen sogar!

Space


Antwort von dienstag_01:

klusterdegenerierung, was ziehst du denn hier eigentlich für eine Show ab ;) Jetzt mußt Du mir nur noch sagen ob OSX eine 10bit Umgebung ist. Das ist überhaupt keine Frage des Betriebssystems, sondern der Grafikkarte.
Vielleicht googlest du mal.

Space


Antwort von klusterdegenerierung:

klusterdegenerierung, was ziehst du denn hier eigentlich für eine Show ab ;) Jetzt mußt Du mir nur noch sagen ob OSX eine 10bit Umgebung ist. Das ist überhaupt keine Frage des Betriebssystems, sondern der Grafikkarte.
Vielleicht googlest du mal. Ich habe jetzt gleich echt die Nase voll!
Liest Du diesen Thread denn überhaupt?

Wir haben doch ein paar Post drüber, darüber gesprochen das meine GTX580 bestimmt kein 10Bit kann und die kleinen onboard Karten meines MacBooks erst Recht nicht!

SO jetzt sage Du SCHLAUMEIER mir doch ENDLICH warum man es unter OSX mit einem, wahrscheinlich, 8bit Monitor sehr gut sehen kann im gegensatz zu gleicher Moni, gleiche Software, gleiches footage unter Windows 8, garnicht zu sehen ist!!!

Muß man Dir eigentlich alles in kleinen gut verdaulichen häppchen servieren?
*** wegen Beleidigung vom Admin gelöscht ***

Space


Antwort von klusterdegenerierung:

Hallo Slashcam, was bitte schön war daran Beleidigung? Da schreiben hier andere aber ganz andere Sachen!

Wird ja neuerdings mit mehrerlei maß gemessen hier was?

Space


Antwort von Niko M.:

Hallo Slashcam, was bitte schön war daran Beleidigung? Da schreiben hier andere aber ganz andere Sachen!

Wird ja neuerdings mit mehrerlei maß gemessen hier was? Weil es typisch Deutsch ist. Deswegen verstehst du auch nicht warum...es ist quasi "normal".
Verbringe ein paar Monate in der Schweiz, und frage die respektvolen Menschen dort, was da denn so vielen an der deutschen Art nicht gefällt.
Ansonsten hilft auch Selbstreflektion und Empathie.

Space


Antwort von Axel:

Ist OSX 10-bit-fähig?

Jain. Bis einschließlich Lion bloß bei entsprechender Videokarte, d.h. nicht bei Kompaktgeräten (iMac, MacBooks). OiS bestimmt nicht. Ich weiß es nicht, würde mich aber wundern.

Video sieht besser aus auf anderem Display. Ist dieses Display "besser"?

Jain. Grottiges Video sieht auf grottigem Display genau so grottig aus wie perfektes Video. Auf Mittelklasse, mit heutzutage recht guter Gamut-Abdeckung auch bei günstigen Geräten sowie allerlei Elektrik-Tricks sieht sowohl ein grottiges wie ein perfektes Video annehmbar aus. Ein Spitzenklasse-Display, komplett auf neutrale Wiedergabe getunet, verzeiht nichts, und nur ein absolut perfektes Video sieht darauf auch perfekt aus.

Kommt aus einer nackten GH4 10-bit Video über HDMI auf den Shogun?

Nein, dazu braucht man das Yagh-Interface mit SDI. EDIT: Offenbar falsch, siehe unten.

Kann man den Unterschied von 8-bit und 10-bit bei einer 8-bit-Wiedergabe SEHEN?

Nein.

Kann man den Unterschied von 8-bit und 10-bit bei einer 10-bit-Wiedergabe sehen?

Ja, im direkten Vergleich mit deutlichem Vorteil von 10-bit.

Kann man den Unterschied von ECHTEM 10-bit bei einer 8-bit-Wiedergabe überhaupt feststellen?

Ja, ziemlich einfach sogar. Bei der Farbkorrektur. Banding ist dabei allerdings bei der Qualität der modernen Floating-Point-Berechnung kein zuverlässiger Indikator mehr. Auch ist es falsch, dass 10-bit besser im Lowlight ist. Rauschen betrifft genau das gleiche Spektrum. Was auffällt ist schlicht, dass mit 10-bit deutlich mehr echte Werte da sind, als mir jeweils gerade angezeigt werden. Eine Milliarde Farben gegenüber 16 Millionen, das merkt man. Eine Stunde CC in 10-bit, danach fühlt man sich mit 8-bit-Material wie der Mann in diesem Cartoon:


Space



Space


Antwort von wolfgang:

Kommt aus einer nackten GH4 10-bit Video über HDMI auf den Shogun?

Nein, dazu braucht man das Yagh-Interface mit SDI. Also das ist ziemlich sicher falsch.

Space


Antwort von -paleface-:



Kommt aus einer nackten GH4 10-bit Video über HDMI auf den Shogun?

Nein, dazu braucht man das Yagh-Interface mit SDI. Würde mich auch interessieren woher du das hast?

Space


Antwort von wolfgang:

Aber der Rest ist ok und eine sehr gute Zusammenfassung, finde ich.

Space


Antwort von Axel:



Kommt aus einer nackten GH4 10-bit Video über HDMI auf den Shogun?

Nein, dazu braucht man das Yagh-Interface mit SDI. Würde mich auch interessieren woher du das hast? War anscheinend eine alte Fehlinformation. Wenn es also stimmt, dass die GH4 über mini HDMI 10-bit 4k auf den Shogun ausgibt, ist das für mich ein so genannter no-brainer. Kontostand gecheckt und her damit!

Space


Antwort von wolfgang:

Tja schon Panasonic selbst hat in den GH4 Spezifikationen 10bit 422 angegeben, und das läßt sich im Menü der GH4 auch im Menü auswählen.

Meine gerade abgeschlossenen Tests mit Shogun Material zeigen ebenfalls, dass hier 10bit vorliegen dürfte.

Space


Antwort von Axel:

Nun muss es nur noch ein schönes Minicage geben, das einzig dazu dient, die fukackige HDMI-Verbindung absolut sicher zu machen ...

Aber das gibt's bestimmt schon?

Space


Antwort von wolfgang:

http://www.amazon.de/gp/product/B00JKR3 ... ge_o09_s00

Space


Antwort von Axel:

Danke.
Habe hie und dort ein bisschen quergelesen zu diesem sehr spannenden Thema. Es scheint so zu sein, dass bei 10-bit Ausgabe über HDMI die GH4 nicht mehr intern aufzeichnet (?). Anschlussfrage: Zeichnet denn dann der Shogun Audio, zumindest als Referenz, mit auf? Sorry, wird bestimmt irgendwo geklärt, aber ich habe diese Chose leider nicht intensiv verfolgt, siehe mein Yagh-Missverständnis.
Nächste Frage: Das zu dieser Kabelklemme passende Walimex-Cage orientiert sich, so schlicht es aussieht, preislich in der 1.Klasse. Hab ich auch da was verpasst? Ich kenne die Marke von früher für billigen Fotokrempel (Stative von Foto Walser z.B. waren der letzte Dreck). Oder haben die damit gar nichts zu tun?

Space


Antwort von srone:

walser hat sich mit einem dt hersteller zusammengetan um die aptaris serie zu bauen, imho zu teuer für die gebotenen features.

lg

srone

Space



Space


Antwort von Frank B.:

Das hier ist der Hersteller der Walimex Aptaris Rigs:

http://www.six-pro.com/store/complete-camera-rigs

Space


Antwort von wolfgang:

Die GH4 zeichnet bei der Ausgabe als 10bit intern nicht mehr auf. Die externe Aufzeichnung erfolgt über ein passendes hdmi 1.4b Kabel welches es bei Amazon um unter 10 Euro gibt (aufs richtige achten!). Als Geräte bieten sich Shogun an, der noch dazu über ein kommendes firmware update Aufzeichnung von derGH4 demnächst offenbar direkt starten können wird und noch bugs in framerates beseitigen wird. Es ginge wohl auch der Q7 (aber da weiss ich keine Details).

Es gibt inzwischen eine WalimexPro Serie Aptaris, die mit dem restlichen Plastikzeug nicht zu verwechseln ist. Für die GH4 gibts auch das Cage und passende Schulterrig. Amazon vertreibt diese Serie inzwischen komplett. Qualität ist gut, der Preis natürlich auch gehoben.

Space


Antwort von iasi:

Gibt es denn schon irgendwo 10bit-Material von einer GH4/Shogun-Kombination?
Wäre interessant, dies mal z.B. mit BMCC-ProRes zu vergleichen.

Die kleinen Abmessungen der GH4 sind schon reizvoll.

Space


Antwort von Axel:

Gibt es denn schon irgendwo 10bit-Material von einer GH4/Shogun-Kombination?
Wäre interessant, dies mal z.B. mit BMCC-ProRes zu vergleichen.

Die kleinen Abmessungen der GH4 sind schon reizvoll. Mit der BMPCC, hier:


Wie man's auch dreht und wendet. Es gibt nicht viel zu meckern gegen 4k 10-bit für zusammen 3000 € ...

EDIT: Beantwortet übrigens meine Frage bezüglich Audioaufzeichnung. Nicht nur wird der Kameraton aufgezeichnet, ein an den Shogun angeschlossenes Mikro zeichnet noch parallel auf, wenn man will.

Space


Antwort von iasi:

danke für den Link

interessant

Eine Frage dazu:
Schärft die GH4 intern so stark?

Bei der BMPCC dachte ich an die Raw-Option, die diese ja auch noch hat.
Den Auflösungsunterschied zwischen Pocket und GH4 konnte man erkennen.

Gerade hatte ich auch nach stabilisierten Objektiven für die GH4 gesucht - leider bin ich nicht fündig geworden, was klein&fein betraf - schade.
Die GH4 als kompakte Sensoreinheit per Kabel am Shogun wäre reizvoll - damit wären Aufnahmen möglich, die sonst nur sehr aufwändig zu machen wären.
Die BM Pocket bietet leider "nur" 1920x1080, was eigentlich selbst für FHD schon fast zu wenig ist.

Space


Antwort von Axel:

Eine Frage dazu:
Schärft die GH4 intern so stark?

Bei der BMPCC dachte ich an die Raw-Option, die diese ja auch noch hat.
Den Auflösungsunterschied zwischen Pocket und GH4 konnte man erkennen.

Gerade hatte ich auch nach stabilisierten Objektiven für die GH4 gesucht - leider bin ich nicht fündig geworden, was klein&fein betraf - schade.
Die GH4 als kompakte Sensoreinheit per Kabel am Shogun wäre reizvoll - damit wären Aufnahmen möglich, die sonst nur sehr aufwändig zu machen wären.
Die BM Pocket bietet leider "nur" 1920x1080, was eigentlich selbst für FHD schon fast zu wenig ist. Bekanntlich bin ich in 4k-Themen nicht so firm. Ich gehe einfach davon aus, dass hier ein downgesampeltes 4k-Bild so scharf wirkt. Große Unterschiede in der Schärfe zwischen dem Shogun und dem internen Codec konnte ich zumindest auf Vimeo nicht erkennen. In diesem Video


deuten die Ausschnittvergrößerungen (des internen AVC-UHDs) eher auf tatsächlichen Auflösungsvorsprung hin, weniger auf Nachschärfung. Und, klar, die Pocket ist Matsche in dieser Hinsicht. Interessant, dass sie trotzdem noch weniger Matsche ist als die 5D MIII (wobei die natürlich ohne das bei ihr umständliche Raw).

Space


Antwort von Jott:

Um die Party mal zu stören: Aufzeichnung nur über eine unsichere labberige HDMI-Verbindung - kein Fallback durch parallele interne Aufzeichnung - ist im professionellen Umfeld ein No-Go. Ist nur was für Indies und Vimeo-Artists ohne Verpflichtungen einem Auftraggeber gegenüber.

Space


Antwort von klusterdegenerierung:

Hallo iasi,

die GH4 geizt wirklich nicht an schärfe, aber mit ein paar Einstellungen im Cine Profil, kann man sie fast auf Pocket Niveau bekommen, das ist wirklich kein Problem und so geht dann das Signal auch an einen Recorder raus!

Beim Thema preiswerte IS Objektive, kann ich Dir 3 Links posten.
Die beiden ersten habe ich mir vor kurzem, genau für die von Dir angesprochenen Intressen gekauft.

Sie sind recht Preiswert, sehr scharf, sehr schnell, und Du kannst sie mit ein paar Eingriffen in den Fokuseinstellungen, gut zum Dauerfokusieren benutzen.
Die Fokus Verfolgung ist garnicht so übel und kann prima bei Kranfahrten in verbindung mit der Remote App auch von Hand justiert werden.

Natürlich sind die Optiken nicht sondelich Lichtstark, aber meine 24-105L von Canon, fängt auch gerade mal bei 4 an.

Die Linsen haben keinen IS Schalter mehr, können aber im GH4 Menü aus geschaltet werden und auf Horizontal oder Vertikal verändert werden.

http://www.amazon.de/Panasonic-14-mm-Ob ... umix+14-42

http://www.amazon.de/Panasonic-H-FS4515 ... mix+45-150

http://www.amazon.de/Panasonic-H-FS1414 ... mix+14-140

Im übrigem sind die Optiken sehr klein (auf den Abbildungen sehen sie normal groß aus), haben aber den Vorteil, das sie sich auch manuel scharf stellen lassen.
Chromatische Aberrationen sucht hier vergebens ;-)

Ich hoffe ich konnte Dir ein wenig helfen? ;-)

Zu Axel und der Audiothematik, kann ich sagen, das ich es mit einem 48V Sennheiser Richtmicro versucht habe und einen durchwachsenen Eindruck gewonnen habe.

Die Externmicro Spur hat einen erheblichen Framedelay, dieser kann aber intern im Shogun korrigier werden.
Was ich aber nicht so toll finde, ist die mangelnde Aussteuerungsmöglichkeit,
Da gibt es nur vier Voreinstellungen, die reichen aber nicht und das Mikro ist viel zu leise.

Space


Antwort von klusterdegenerierung:

Um die Party mal zu stören: Aufzeichnung nur über eine unsichere labberige HDMI-Verbindung - kein Fallback durch parallele interne Aufzeichnung - ist im professionellen Umfeld ein No-Go. Ist nur was für Indies und Vimeo-Artists ohne Verpflichtungen einem Auftraggeber gegenüber. Ein Update für eine parallele Aufzeichung ist in der Mache und den HDMI Stecker kann man auf vielfältigeweise sichern, erst Recht an einem Rig.

Auch für den Run&Gun Betrieb gibt es schon diverse professionelle Bodenplatten mit HDMI Lock.

Space



Space


Antwort von Axel:

Hier nun kommt der Yagh-Klumpen wieder ins Spiel mit seinen SDIs.

Was mindestens ebenso schlimm sein kann wie die poplige HDMI-Verbindung als solche ist die oft durch sie bedingte verzögerte Wiedergabe auf dem externen Gerät. Im Schnitt 6-8 Frames/25fps. DAS ist für mich ein Nogo.

Sacken lassen ...

Space


Antwort von srone:

@axel

ich hatte die gh4 für dieses jahr auch auf dem schirm, tendiere allerdings im moment weit mehr zu einer sony a7s, es gibt da nette vergleichstest im netz.

lg

srone

Space


Antwort von klusterdegenerierung:

Hier nun kommt der Yagh-Klumpen wieder ins Spiel mit seinen SDIs.

Was mindestens ebenso schlimm sein kann wie die poplige HDMI-Verbindung als solche ist die oft durch sie bedingte verzögerte Wiedergabe auf dem externen Gerät. Im Schnitt 6-8 Frames/25fps. DAS ist für mich ein Nogo.

Sacken lassen ... Aber das Thema hatten wir ja schon, das die GH4 damit nicht alleine da steht, vielleicht hat sie 2 mehr als andere, aber ich meine mich daran errinnern zu können, das Pana dies auch zum Thema für ein Update machen wollten.

Den Yagh finde ich persönlich so über, wie die Steffi Graf Design Variante des 80er Opel Corsa :-))))

Space


Antwort von Jott:

Der Yagh-Klumpen braucht eine externe Stromversorgung, also noch einen weiteren Klumpen dazu. Das tut alles so richtig weh.

Eine richtige Kamera ist doch nicht so viel teurer ...

Space


Antwort von klusterdegenerierung:

Ja -;) Wenn man den ganzen Schrott erstmal zusammen gedängelt hat, brauchste nicht mehr soo viel für ne FS7 :-€

Space


Antwort von Axel:

Ja -;) Wenn man den ganzen Schrott erstmal zusammen gedängelt hat, brauchste nicht mehr soo viel für ne FS7 :-€ Richtig. Für meinen Geldbeutel trotzdem zuviel und auch zu groß. Ich hoffe auf die Pocket2 mit 2,5k Sensor = echtem FullHD ...

Space


Antwort von klusterdegenerierung:

Ja -;) Wenn man den ganzen Schrott erstmal zusammen gedängelt hat, brauchste nicht mehr soo viel für ne FS7 :-€ Richtig. Für meinen Geldbeutel trotzdem zuviel und auch zu groß. Ich hoffe auf die Pocket2 mit 2,5k Sensor = echtem FullHD ... Oderso!

Ach apropo HDMI, ich habe neue HDMI Stecker mit Schraube gesehen, so ähnlich wie bei VGA. Ist ja eine Prima Idee, aber welches Gerät hat ein Gewinde dafür?

Space


Antwort von -paleface-:

Welches Kabel habt ihr eigentlich genommen?

Da steht nicht ib es für 1,4(b) ist. Nur a.

http://www.amazon.de/deleyCON-Ethernet- ... uctDetails

Space


Antwort von klusterdegenerierung:

Welches Kabel habt ihr eigentlich genommen?

Da steht nicht ib es für 1,4(b) ist. Nur a.

http://www.amazon.de/deleyCON-Ethernet- ... uctDetails
http://www.amazon.de/COM-FOUR%C2%AE-Ste ... e+auf+HDMI

Space



Space


Antwort von wolfgang:

Gibt es denn schon irgendwo 10bit-Material von einer GH4/Shogun-Kombination?
Wäre interessant, dies mal z.B. mit BMCC-ProRes zu vergleichen.

Die kleinen Abmessungen der GH4 sind schon reizvoll. Echte Files von dieser Kombination findest du hier:

http://www.videotreffpunkt.com/index.ph ... UHD-Files/

Space


Antwort von wolfgang:

Welches Kabel habt ihr eigentlich genommen?

Da steht nicht ib es für 1,4(b) ist. Nur a.

http://www.amazon.de/deleyCON-Ethernet- ... uctDetails
http://www.amazon.de/COM-FOUR%C2%AE-Ste ... e+auf+HDMI Stimmt - beim oberen steht nur 1.4a dabei. Ich nutze das aber und es geht definitiv. Dass sich damit 10bit aufzeichnen läßt wurde halt hier gezeigt, die Shogun Testbilder wurden mit diesem Kabel gemacht.

http://www.videotreffpunkt.com/index.ph ... ssenstand/

Beachte besondes Bild 13 - und den Kommentar in Posting 26.
Beim unteren Kabel steht leider gar keine Angabe zum hdmi-Typ dabei, da muss Kluster was dazu sagen ob er die 10bit Übertragung damit schon nachweisen konnte.

Wer auf Nummer sicher gehen will kauft sich das Kabel bei Atomos selbst. Ist dann aber vermutlich teurer.

Space


Antwort von klusterdegenerierung:

Beim unteren Kabel steht leider gar keine Angabe zum hdmi-Typ dabei, da muss Kluster was dazu sagen ob er die 10bit Übertragung damit schon nachweisen konnte. Hallo Wolfgang, funzt super das Kabel!
Besonders in meiner Kombi am Rig, weil die starre Kabellänge genau für die Klemmen an den Rods reicht und dann kommt die spiralung, das funzt echt gut und der Stecker sitzt durch diese simple arretierung Bombenfest, weil das Kabel dort sehr fest ist.

Ich kann das Kabel empfehlen, wo man diese klemmen bekommt, weiß ich leider nicht.
Hatte mir aber extra eine Rodhalterung gekauft, die war aber lange nicht so klasse wie diese Ratschenklemmen.
Kann man auch ganz schnell wieder ab machen.

Space


Antwort von klusterdegenerierung:



Der Text ist interessanter ;-)

Space


Antwort von wolfgang:

Was meinst du? Dass er mit dem DNxHD codec arbeitet?

Space


Antwort von -paleface-:

Er meint wahrscheinlich das konvertieren von 4K 4:2:0 nach 1080p 4:4:4

Das ist so eine Sache die seit beginn der Gh4 durchs Netz geistert.
Ich habe aber noch NIRGENDS einmal einen richtigen Beweis oder Beispiele gesehen.

Der der das Youtube Video "Meditaions" gemacht hat, schreibt selbst in den Kommentaren: Ich habe nie beide Files verglichen.
Klingt für mich nach "hab gehört das man das so macht, dann mach ich es".
Mindert natürlich nicht die Qualität der Filmes.

Sollte aber jemand mehr als nur Theorie zu diesem konvertieren für mich haben, immer her damit :-)

Space


Antwort von motiongroup:

das würde hier und dort schon vor fast einem Jahr besprochen

http://www.eoshd.com/2014/02/discovery- ... 10bit-444/

http://www.eoshd.com/2014/04/exclusive- ... 10bit-444/

Space


Antwort von klusterdegenerierung:

So richtig glaub ich das nicht, wo nix is kommt auch nix mehr rein, es sei denn da würde noch ein aufwendiger Algorhytmus hinter stecken, der benachbarte Pixel...usw, aber wohl nicht in einem Codec.

Space


Antwort von klusterdegenerierung:

das würde hier und dort schon vor fast einem Jahr besprochen

http://www.eoshd.com/2014/02/discovery- ... 10bit-444/

http://www.eoshd.com/2014/04/exclusive- ... 10bit-444/ Da wird ja dies hier gesagt, ich weiß nicht was ich davon halten soll? Können Wolfgang, ich und die anderen Ninjas jetzt ihre Geräte wieder abgeben ? ;-)

"Hey guys, I've written a really simple command line app for Mac that will resample GH4 footage from 4K 4:2:0 to 2K 4:4:4 using pixel summing. This will give you real 10 bit data in the luminance channel, so it's not just doing a brute-force bump from 8 bits to 10 bits. There actually is some interesting pixel finagling going on here"

Space



Space


Antwort von motiongroup:

probiere es einfach aus...

ob es Sinn macht bleibt jedem selbst überlassen, für mich selbst eher nicht..
da ich oder wir hier bei 1080 er oder 2k bleiben, kommt da eher eine bmpcc oder bmcc mit mft Bajonett in Frage ... egal das gehört hier nicht her, hier geht's um die gh4 .. allenfalls der Versuch die gh3 1080er 4:2:0 files zu 720er 4:4:4 10bit zu wandeln :)

Space


Antwort von motiongroup:

nein warum solltest du etwas verkaufen... Das Teil ist doch 1a in allen Belangen, die files funktionieren unter OS X in fcpx hier ohne Probleme auch in Motion, Compressor, Piranha8 und vermutlich auch in Premiere.

Space


Antwort von klusterdegenerierung:

Hallo motiongroup,
Du hast natürlich Recht und es war ja auch nicht ernst gemeint. ;-)
Den Test hatte ich damals nach dem Artikle auch gemacht, konnte aber keinen Unterschied ausmachen.

Aber bei dem was Du da oben offtopic so schön geschrieben hast, möchte ich mal meinen Eindruck schildern, und dabei spreche ich nicht Dich persönlich an.

So super lange bin ich hier ja noch nicht bei Slashcam und kann deswegen nicht sagen ob das ein Grundsätzliches Phänomen ist.

Auffällig ist aber, das jede neue vielversprechende Cam, erst mal in den Himmel gelobt wird, besonders wenn sie viel verspricht fürs Geld.

Dann kommt dieses Gerät auf den Markt und einer sagt was negatives wie
"die ist zu schrf, sieht nicht nach Kino aus"

Ab da hat sie ihr Fett weg, besonders wenn sie nicht von einer Profisscharr verwendet wird und erst Recht weil ja schon wieder eine neue in den Startlöchern steht die noch mehr verspricht und so geht es dann immer weiter, es sei denn es gibt 2 Ausschluß Kriterien, die da wären "zu Hohe Anschaffungskosten und die Einbettung in die wirkliche Welt der Profis und Kinolandschaft!

Deswegen gibt es auch nur wenige Cams die hier nicht gebascht werden, dazu gehört an erster stelle die Pocket, denn an der hängen 100x so teuere Optiken und man sieht sie in Hollywood!

Eine FS700/7 und die EOS Cinema Serie ist oft ausser Reichweite, ausserdem sieht man sie ja ständig im TV auf dem roten Teppich.

Das man die schärfe der GH4, trotz interner schärfung, weiter runter bekommt als die der 5DII, ist eh egal, weil über so eine betagte Lady in Rente spricht man nicht mehr schlecht. ;-)

Persönlich interessiert es mich nicht wirklich, weil ich mit der Cam wirklich schöne Sachen machen kann, aber es nerft irgendwie ein bisschen wenn man an jeder Ecke, von Leuten die die Cam nur vom Papier kennen, immer wieder mit ihrem Schubladen geleier kommen!

Im Gegensatz dazu, finde ich es eher toll zu sehen, was manche ( ) so mit Cams wie der 550D oder 7D so machen, die ich selber hatte, aber immer nur aussah wie ein Camcorder! ;-)

Klar liegt an den Fähigkeiten, aber genau das ist es ja, geht mit jeder Cam.

Vielleicht sollten wir da mal anders mit umgehen :-) Nur mal son Gedanke ;-)

Space


Antwort von -paleface-:

das würde hier und dort schon vor fast einem Jahr besprochen

http://www.eoshd.com/2014/02/discovery- ... 10bit-444/

http://www.eoshd.com/2014/04/exclusive- ... 10bit-444/ Da kommt das ja her. Danach hat es Slashcam dann übernommen.

Ich habe nach Test keinen unterschied gemerkt außer das ich nun riesen Dateien habe.

Aber ich lasse mich gerne überzeugen. Würde mich ja freuen wenn es was bringen würde.

Space


Antwort von motiongroup:

@ paleface eine Verbesserung? ich denke nicht das es um eine Verbesserung geht sondern um die Weiterverarbeitung.. im Prinzip macht fcpx auch nichts anderes wenn es gelassen wird.. entweder verwurstet es zu Prores oder du verwendest das Originalmaterial..

Sinn und Unsinn liegt in der jeweiligen Infrastruktur aus Hardware und Software... es hat auch nichts explizit mit 4k oder 4:4:4 , 4:2:2 oder 4:2:0 in 8 und 10 bit zu tun.. Ingest , Archive, Edit, Playout und was noch alles eingebunden ist.. wir haben eine Vorgabe und die Arbeiten wir ab und da brauchst eigentlich kein Experiment. wenn du, ihr euch darauf blond verlassen könnt was euer so wie unser Plunder kann, brauchts die Debatte gar nicht..

@ kluster* na ich denke zum Thema BM Cams egal ob berechtigt oder unberechtigt sind der Fetzen genug geflogen.. Es wird immer Personen geben die ihren Standpunkt militant vertreten meist bis zum bitteren Ende und die helfende Moderatorenhand befriedet durch Unterbindung von kriegerischen Handlungen..

für mich das beste Beispiel war die GH3, der leuchtende Stern am Himmel nach der gh2 die kaum zu schlagen war... was wurde hier alles geschrieben heute, die gh4 ist da und..... die gh3 was is'n des eigentlich..
als ich mich damals erdreistete zu schreiben das der Sucher der gh3 der letzte Dreck und unbrauchbar sei haben sie mich anderswo fast gelyncht..
heute, lies mal nach.. Schrott, Dreck, Scheiß + Dreck lies mal nach.. Macht echt Spaß.

PROFI, HÄNDLER, GURU... ich war letztens beim Profi... 30000er Service beim Vw Händler meines Vertrauens.. das Rückstellungen der Serviceanzeige bei einem TSi Motor verschliss einen Gesellen und einen Meister und dauerte eine geschlagene Stunde.. noch Fragen?

Space


Antwort von mash_gh4:

So richtig glaub ich das nicht, wo nix is kommt auch nix mehr rein, es sei denn da würde noch ein aufwendiger Algorhytmus hinter stecken, der benachbarte Pixel...usw, aber wohl nicht in einem Codec. das wirklich spannende an dieser geschichte ist die tatsache, dass man bei genauer betrachtung darauf stößt, dass es nicht immer zielführend ist in isolierten pixeln zu denken, wenn das zeug einmal in komprimierter beschreibung vorliegt. dazu gibt's hier eine ziemlich gute diskussion:

http://www.dvxuser.com/V6/showthread.ph ... 080p-10bit

der techn. wirklich spannende punkt tritt spätesten bei #70-#73 nocheinmal klar hervor:
If the 8-bit 4K image is a dithered representation of a higher bit depth image then your theory holds true. If it is simply a 8-bit image recorded without dithering your theory is not true. vs:
The decoder does not use pseudo-random dithering to produce pixels, it instead uses a built-in Deblocking Filter to smooth off macroblock artifacts. If you performed the 4K->1080p downscaling at this point, you'd find arrays of 8-bit pixels with values covering the full 0-255 8-bit range. The DSP unit in the GH4 has no need to convert its 12-bit RGBG sensor levels into 8-bit precision, dithered or otherwise. Its debayering, tone curve processing, and YUV subsampling are no doubt done at signed 16-bit precision (or 32-bit, when convenient). The YUV data is then transformed by the H.264 encoder into 8-bit macroblock spatial frequency components and quantized to fit within the available bitrate. At no point is there a need to "dither" any pixel values, RGB, YUV, or otherwise. wie gesagt, da kommt eine ziemlich komplizierter aspekt hinzu, der sich mit der alleinigen bezugnahme auf isolierte pixel nicht mehr vernünftig fassen lässt. genau das wird aber entscheidend, wenn man erfassen will, warum und wie weit entsprechender auflösungsgewinn durch skalierungsmaßnahmen tatsächlich greifen kann.

Space


Antwort von klusterdegenerierung:

ALSO ;-)

Ich habe jetzt den ganzen Tag damit verbracht im Netz passendes zum Thema zu finden.

Das habe ich dann nach viel viel lesen auch, das möchte ich euch aber nicht alles zumuten und kürze es auf das wesentliche!

Windows ist 10Bit fähig unter folgenden Bedingungen

- Nvidia Quadro GPU mit Display Port
- Nvidia Geforce GPU in Verbindung mit BMD DeckLink Mini Monitor Karte für externe Monitorbetrachtung

Kompatible Windows Programme

- Adobe CS ab Version 6
- Davinci Resolve 11
- Davinci Resolve Lite 11 (nur in verbindung mit Decklink Karte)!!!!

Nicht kompatibel ohne aditivas

- Nvidia Geforce
- Davinci Resolve Lite

Natürlich ist hierfür ein Monitor mit echten 10Bit und unterstüzten Kabeln, sowie 10Bit Footage vorrausgehend.

Was mir neu war, ist das es Quadro Karten schon ab 120€ gibt!
Für 180 gibt es schon eine ganz ordentliche Quadro, die aber natürlich nicht so Leistungsstark, was das Rendern betrifft, ist wie eine preislich gleichwertige Geforce.
Das kann dann ja vielleicht die alte Geforce übernehmen.

https://www.alternate.de/PNY/NVIDIA-Qua ... ent=search

Mit der DeckLink Karte kann man zumindest einen 10Bit Monitor, wie einen Broadcast Monitor, als Referenz Monitor verwenden, gerendert wird dann mit Geforce.

Auszug aus Nvidias 10Bit Geforce Erläuterung:

NVIDIA Geforce graphics cards have offered 10-bit per color out to a full screen Direct X surface since the Geforce 200 series GPUs. Due to the way most applications use traditional Windows API functions to create the application UI and viewport display, this method is not used for professional applications such as Adobe Premiere Pro and Adobe Photoshop. These programs use OpenGL 10-bit per color buffers which require an NVIDIA Quadro GPU with DisplayPort connector. A small number of monitors support 10-bit per color with Quadro graphics cards over DVI."

Space


Antwort von domain:

Ist doch völlig klar, dass es bei Formaten größer als 8Bit etc. viel größere Korrekturmöglichkeiten gibt.
Etwas seltsam ist nur, dass quasi jahrzehntelang ohne größere Aufregung auch 8Bit ausgereicht haben, die heutigen User der besseren Formate das aber komplett abstreiten: ohne 10Bit geht gar nichts ihr Tschopperln.
Hier mal ein extremes provoziertes Farbkippen von Orangerot ins Cyan in 8Bit, das man normalerweise nie machen würde. Kann kein erwähnenswertes Banding oder Farbabrisse erkennen.

Original unverändert aus der XF100




Space


Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Videoschnitt Allgemein-Forum

Antworten zu ähnlichen Fragen //


Gedanken & Tests zu 10bit/8bit in Bezug auf GH4/Shogun
8Bit 4:2:0 vs 8Bit 4:2:2
Rode Smartlav+ > (Zoom GH5) > Lumix GH4, GH5 + Android Tests
Brauche Einsteigertipps für Premiere Pro (8bit vs. 10bit, V-LOG, HLG, etc)
8Bit Ronin SC oder 10Bit RS2?
Atomos Shogun und Shogun Ultra - aktualisierte 7" Monitor/Recorder
BMD Pocket Gedanken
Resolve Update - Fusion Gedanken
Skurille Gedanken zum Thema Muxen/Zippen ohne Komprimierung
GH4 Premiere-Import geht nicht
Lumix GH4 mit Ninja V
Panasonic S1/GH4/GH5 Forum - mit G9?
externer monitor via hdmi an gh4?
Mein 8Bit Experiment!
Wie herausfinden, ob echtes 10-bit video vorliegt o. 8bit Quelle in 10-bit Container?
Schockiert über 8Bit Footage!
f0.7 – Ultraschnelle Objektive – Legenden, Preiswertes, Modding, und Tests
Blackmagic DaVinci Resolve GPU-Tests mit Apple M1 MacBook Pro 13 Zoll
f0.7 – Ultraschnelle Objektive – Legenden, Preiswertes, Modding, und Tests




slashCAM nutzt Cookies zur Optimierung des Angebots, auch Cookies Dritter. Die Speicherung von Cookies kann in den Browsereinstellungen unterbunden werden. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung. Mehr Infos Verstanden!
RSS Suche YouTube Facebook Twitter slashCAM-Slash